یکی از دانشمندان توسعهی هوش مصنوعی در اپن ای آی OpenAI پیشبینی کرده است که هوش مصنوعی انسانگونه تا سال ۲۰۲۷ از راه خواهد رسید.
یکی از پژوهشگران سابق OpenAI گزارشی دربارهی مسیر رشد و توسعهی هوش مصنوعی، امنیت کاربران و موارد دیگر منتشر کرده است که تا حدودی چشمانداز آیندهی این حوزه را ترسیم میکند.
پس از راهاندازی GPT-4o، تعدادی از کارمندان سطح بالای OpenAI این شرکت را ترک کردند. ژان لایک، سرپرست سابق تیم Superalignment (هستهی مرکزی تحقیق و توسعهی هوش مصنوعی در OpenAI) یکی از همین افراد بود که اعلام کرد از روند گسترش هوش مصنوعی در این شرکت نگران است. او میگوید که خلق محصولات جذاب برای OpenAI اولویت بالاتری نسبت به امنیت و حریم خصوصی کاربر دارد.
لئوپولد آشنبرنر، یکی از دانشمندان سابق تیم Superalignment، بهدلیل افشای اطلاعات حساس شرکت دربارهی هوش مصنوعی عمومی اخراج شد. با این حال، آشنبرنر اظهار میکند که اطلاعاتی که او به اشتراک گذاشته است «کاملاً عادی» بودهاند.
بیشتر بخوانید
آشنبرنر در گزارش ۱۶۵ صفحهای خود گفته است که پیشرفت هوش مصنوعی با سرعت بیسابقهای شتاب خواهد گرفت و ممکن است تا سال ۲۰۲۷، تواناییهای محققان و مهندسان را پشت سر بگذارد.
کوین اسکات، از مدیران مایکروسافت مطالب مشابهی را به اشتراک گذاشته است و مدلهای هوش مصنوعی پیشرفتهتری را پیشبینی میکند که توانایی قبولی در آزمونهای ورودی دکترا را دارند.
با ظهور مدل هوش مصنوعی پرچمدار GPT-4o با قابلیتهای تشخیص، استدلال و مکالمهی انسانگونه، بهنظر میرسد که در آیندهی نزدیک به دوران هوش مصنوعی فوق هوشمند (Super Intelligent) خواهیم رسید که ممکن است از هوش انسانی بسیار فراتر برود.
گزارشها نشان میدهند که در نهایت، هوش مصنوعی هوشمندتر از انسانها خواهد شد، شغلهای آنها را خواهد گرفت و کار را به یک سرگرمی تبدیل خواهد کرد. نگرانیهای زیادی درباره پیامدهای این موضوع بر زندگی بشر وجود دارد.
سم آلتمن، مدیرعامل OpenAI، نیاز به یک سازمان بینالمللی مستقل را پیشبینی میکند تا اطمینان حاصل شود که پیشرفتهای هوش مصنوعی چارچوب قانونی پیدا کنند تا از نتایج ویرانگر احتمالی جلوگیری شود.