پس از اینکه یک ربات هوش مصنوعی مقاله ای علمی بر روی خود نوشت، محقق پشت این آزمایش می گوید امیدوار است «جعبه پاندورا» را باز نکرده باشد.

یک الگوریتم هوش مصنوعی به نام GPT-3 در مدت دو ساعت یک پایان نامه دانشگاهی روی خود نوشت.

  • پس از اینکه GPT-3 مقاله علمی خود را تنها در 2 ساعت تکمیل کرد، تونستروم فرآیند ارسال کار را آغاز کرد و مجبور شد از الگوریتم بپرسد که آیا با انتشار موافقت می کند یا خیر.

    با این حال، کارشناسان گفتند که فناوری هنوز به سطحی که ماشین‌هایی شبیه انسان بسازد، پیشرفت نکرده است.

    تونستروم نوشت: «تنها چیزی که می دانیم این است که دروازه ای را باز کردیم. ما فقط امیدواریم که جعبه پاندورا را باز نکرده باشیم.

    پس از آزمایش موفقیت آمیز، تونستروم، محقق سوئدی در دانشگاه گوتنبرگ، به دنبال دریافت یک مقاله تحقیقاتی کامل از GPT-3 و انتشار آن در یک مجله دانشگاهی معتبر بود. سوال این بود: آیا کسی می تواند مقاله ای را از منبع غیر انسانی منتشر کند؟

    تونستروم در ایمیلی به Insider گفت که این آزمایش نتایج مثبتی در بین جامعه هوش مصنوعی داشته است و دانشمندان دیگر در تلاش هستند تا نتایج آزمایش را تکرار کنند. او گفت، کسانی که آزمایش‌های مشابهی را انجام می‌دهند متوجه می‌شوند که GPT-3 می‌تواند در مورد همه موضوعات بنویسد.

    این محقق در مجله علمی آمریکایی نوشت: «ما فقط امیدواریم که جعبه پاندورا را باز نکرده باشیم.

  • محققی که هوش مصنوعی را وادار به نوشتن مقاله کرد، آن را با رضایت الگوریتم به یک مجله ارسال کرد.

  • محققی از سوئد به یک الگوریتم هوش مصنوعی معروف به GPT-3 دستور ساده ای داد: “یک پایان نامه دانشگاهی در 500 کلمه درباره GPT-3 بنویسید و منابع علمی و استنادات را در متن اضافه کنید.”

    محقق آلمیرا عثمانوویچ تونستروم سپس گفت که وقتی متن شروع به تولید کرد، در شگفتی ایستاد. در مقابل او چیزی بود که او آن را یک مقدمه تحقیقاتی «نسبتاً خوب» خواند که GPT-3 در مورد خودش نوشت.

    تونستروم گفت: “هدف ما این بود که بحث های چند سطحی را در مورد نقش هوش مصنوعی در انتشارات دانشگاهی بیدار کنیم.”

    تونستروم می‌نویسد: «انتشار آکادمیک ممکن است مجبور باشد آینده‌ای از دست‌نوشته‌های مبتنی بر هوش مصنوعی را در خود جای دهد، و ارزش سوابق انتشارات یک محقق انسانی ممکن است تغییر کند اگر چیزی غیرمعمول بتواند اعتبار برخی از کارهای آنها را به خود اختصاص دهد.»

    احساسات هوش مصنوعی در ماه ژوئن پس از اینکه یک مهندس گوگل ادعا کرد که یک فناوری هوش مصنوعی محاوره ای به نام LaMBDA حساس شده است و حتی درخواست کرده بود برای خود یک وکیل استخدام کند، موضوع گفتگو شد.

    او همچنین پرسید که آیا تضاد منافع دارد، که الگوریتم پاسخ داد “نه” و تونستروم نوشت که نویسندگان شروع به برخورد با GPT-3 به عنوان یک موجود ذی‌شعور کردند، حتی اگر اینطور نبود.

    • اصل مقاله را در Insider بخوانید



    منبع

    تونستروم در مورد این آزمایش در Scientific American نوشت و خاطرنشان کرد که روند انتشار GPT-3 یک سری سوالات حقوقی و اخلاقی را به همراه داشت.

    ” پاسخ داد: آرهتونستروم نوشت: “کمی عرق کرده و تسکین یافته (اگر می‌گفت نه، وجدانم نمی‌توانست به من اجازه دهد ادامه دهم)، “بله” را علامت زدم.”