هوش مصنوعی «متا» ناظر سایر مدل‌های هوش مصنوعی می‌شود

مدل هوش مصنوعی شرکت «متا» می‌تواند بر کار سایر مدل‌های هوش مصنوعی نظارت کند.

به گزارش هاناخبر ، «متا»(Meta) شرکت مالک «فیسبوک»(Facebook) اعلام کرد که بخش تحقیقاتی آن قصد دارد یک مجموعه از مدل‌های جدید هوش مصنوعی را منتشر کند؛ از جمله یک ارزیابی‌کننده خودآموخته که ممکن است راهی را به سمت مشارکت کمتر انسان در فرآیند توسعه هوش مصنوعی ارائه دهد.

به نقل از رویترز، این خبر پس از معرفی این مدل توسط متا در مقاله‌ ماه اوت منتشر شد. متا در آن مقاله توضیح داده بود که این مدل بر همان روش زنجیره فکری استفاده‌ شده توسط مدل‌های شرکت «اوپن‌ای‌آی»(OpenAI) برای قضاوت قابل اعتماد درباره پاسخ مدلها متکی است.

این روش شامل تقسیم کردن مسائل پیچیده به مراحل منطقی کوچک‌تر است و به نظر می‌رسد که دقت پاسخ‌ها را درباره مسائل چالش‌برانگیز در موضوعاتی مانند علوم، کدنویسی و ریاضی بهبود می‌بخشد. پژوهشگران متا، داده‌های تولیدشده توسط هوش مصنوعی را برای آموزش مدل ارزیابی‌کننده به کار بردند و ورودی‌های انسانی را در آن مرحله حذف کردند.

دو نفر از پژوهشگران متا که در این پروژه نقش دارند، در مصاحبه با رویترز گفتند: توانایی استفاده از هوش مصنوعی برای ارزیابی قابل اعتماد، یک نگاه اجمالی را به مسیر احتمالی ساخت عوامل هوش مصنوعی مستقل ارائه می‌دهد که می‌توانند از اشتباهات خود درس بگیرند.

بسیاری از افراد فعال در زمینه هوش مصنوعی، چنین عواملی را به عنوان دستیارهای دیجیتال هوشمند در نظر می‌گیرند که می‌توانند مجموعه وسیعی از وظایف را بدون دخالت انسان انجام دهند.

«جیسون وستون»(Jason Weston) یکی از پژوهشگران گفت: ما امیدواریم هوش مصنوعی هرچه بیشتر به هوش فرابشری دست یابد و در کار خود آن قدر بهتر شود که در واقع بهتر از یک انسان معمولی باشد. ایده خودآموختگی و توانایی خودارزیابی اساسا برای ایده رسیدن به این نوع سطح فوق بشری هوش مصنوعی بسیار مهم است.

ارسال نظر

  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
7 + 8 =