یک الگوریتم هوش مصنوعی به نام GPT-3 در مدت دو ساعت یک پایان نامه دانشگاهی روی خود نوشت.
پس از اینکه GPT-3 مقاله علمی خود را تنها در 2 ساعت تکمیل کرد، تونستروم فرآیند ارسال کار را آغاز کرد و مجبور شد از الگوریتم بپرسد که آیا با انتشار موافقت می کند یا خیر.
با این حال، کارشناسان گفتند که فناوری هنوز به سطحی که ماشینهایی شبیه انسان بسازد، پیشرفت نکرده است.
تونستروم نوشت: «تنها چیزی که می دانیم این است که دروازه ای را باز کردیم. ما فقط امیدواریم که جعبه پاندورا را باز نکرده باشیم.
پس از آزمایش موفقیت آمیز، تونستروم، محقق سوئدی در دانشگاه گوتنبرگ، به دنبال دریافت یک مقاله تحقیقاتی کامل از GPT-3 و انتشار آن در یک مجله دانشگاهی معتبر بود. سوال این بود: آیا کسی می تواند مقاله ای را از منبع غیر انسانی منتشر کند؟
تونستروم در ایمیلی به Insider گفت که این آزمایش نتایج مثبتی در بین جامعه هوش مصنوعی داشته است و دانشمندان دیگر در تلاش هستند تا نتایج آزمایش را تکرار کنند. او گفت، کسانی که آزمایشهای مشابهی را انجام میدهند متوجه میشوند که GPT-3 میتواند در مورد همه موضوعات بنویسد.
این محقق در مجله علمی آمریکایی نوشت: «ما فقط امیدواریم که جعبه پاندورا را باز نکرده باشیم.
محققی که هوش مصنوعی را وادار به نوشتن مقاله کرد، آن را با رضایت الگوریتم به یک مجله ارسال کرد.
محققی از سوئد به یک الگوریتم هوش مصنوعی معروف به GPT-3 دستور ساده ای داد: “یک پایان نامه دانشگاهی در 500 کلمه درباره GPT-3 بنویسید و منابع علمی و استنادات را در متن اضافه کنید.”
محقق آلمیرا عثمانوویچ تونستروم سپس گفت که وقتی متن شروع به تولید کرد، در شگفتی ایستاد. در مقابل او چیزی بود که او آن را یک مقدمه تحقیقاتی «نسبتاً خوب» خواند که GPT-3 در مورد خودش نوشت.
تونستروم گفت: “هدف ما این بود که بحث های چند سطحی را در مورد نقش هوش مصنوعی در انتشارات دانشگاهی بیدار کنیم.”
تونستروم مینویسد: «انتشار آکادمیک ممکن است مجبور باشد آیندهای از دستنوشتههای مبتنی بر هوش مصنوعی را در خود جای دهد، و ارزش سوابق انتشارات یک محقق انسانی ممکن است تغییر کند اگر چیزی غیرمعمول بتواند اعتبار برخی از کارهای آنها را به خود اختصاص دهد.»
احساسات هوش مصنوعی در ماه ژوئن پس از اینکه یک مهندس گوگل ادعا کرد که یک فناوری هوش مصنوعی محاوره ای به نام LaMBDA حساس شده است و حتی درخواست کرده بود برای خود یک وکیل استخدام کند، موضوع گفتگو شد.
او همچنین پرسید که آیا تضاد منافع دارد، که الگوریتم پاسخ داد “نه” و تونستروم نوشت که نویسندگان شروع به برخورد با GPT-3 به عنوان یک موجود ذیشعور کردند، حتی اگر اینطور نبود.
-
اصل مقاله را در Insider بخوانید
تونستروم در مورد این آزمایش در Scientific American نوشت و خاطرنشان کرد که روند انتشار GPT-3 یک سری سوالات حقوقی و اخلاقی را به همراه داشت.
” پاسخ داد: آرهتونستروم نوشت: “کمی عرق کرده و تسکین یافته (اگر میگفت نه، وجدانم نمیتوانست به من اجازه دهد ادامه دهم)، “بله” را علامت زدم.”