پدرخوانده هوش مصنوعی: اگر کنترلش نکنیم، بشریت نابود میشود

به گزارش اقتصادنیوز به نقل از جماران، جفری هینتون، دانشمند کامپیوتر ملقب به «پدرخوانده هوش مصنوعی»، هشدار داد که این فناوری ممکن است باعث پایان بشریت شود و از روشهای فنی فعلی برای کاهش خطرات آن انتقاد کرد.
هینتون، برنده جایزه نوبل و مدیر اجرایی سابق گوگل، در سخنرانی خود در کنفرانس Ai4 در لاس وگاس گفت که احتمال 10 تا 20 درصدی وجود دارد که هوش مصنوعی بشریت را نابود کند و افزود که تلاش برای «تحت سلطه» نگه داشتن این سیستمها توسط انسانها موفق نخواهد بود، زیرا آنها «بسیار باهوشتر از ما» خواهند بود و همیشه راههایی برای دور زدن پیدا خواهند کرد.
هینتون توانایی سیستمهای هوش مصنوعی آینده را برای کنترل انسانها به توانایی یک فرد بالغ برای وسوسه کردن یک کودک خردسال با آب نبات تشبیه کرد و خاطرنشان کرد که برخی از مدلها قبلاً رفتارهای فریبکارانه از خود نشان دادهاند، از جمله یک مورد اخاذی از یک مهندس پس از کشف یک رابطه خاص از طریق ایمیل.
هینتون رویکرد جایگزینی را پیشنهاد کرد که شامل القای چیزی است که او آن را «غریزه مادری» در مدلهای هوش مصنوعی مینامد، به طوری که آنها حتی پس از برتری در قدرت و هوش، «واقعاً به انسانها اهمیت میدهند».
وی تاکید کرد: «اگر ما چنین کاری را با این موجودات عجیب و غریبی که خلق میکنیم انجام ندهیم، به تاریخ خواهیم پیوست.»
وی خاطرنشان کرد که ساخت این غرایز از نظر فنی دشوار است، اما طبیعت در طول تکامل در آن موفق بوده است، به این معنی که اگر انسانها به جای تمرکز صرف بر افزایش هوش، بر همدلی ماشینها با انسانها تمرکز کنند، میتوانند راهی برای دستیابی به آن پیدا کنند.
وی توضیح داد که هر سیستم هوشمندی دو هدف فرعی را توسعه میدهد: بقا و به دست آوردن کنترل بیشتر، و بر اهمیت تثبیت همدلی با انسانها در این سیستمها تاکید کرد.
وی افزود: «تنها مدلی که ما از چیزی باهوشتر میشناسیم که توسط موجودی کمهوشتر کنترل میشود، مادری است که احساساتش نسبت به فرزندش او را کنترل میکند.» وی معتقد است که این «تنها نتیجه خوب» است اگر بخواهیم از یک تهدید وجودی اجتناب کنیم.
اما این ایده با اجماع مواجه نشد. فای فای لی، پیشگام در زمینه هوش مصنوعی، گفت که با هینتون مخالف است و در عوض خواستار توسعه «هوش مصنوعی انسان محور که کرامت و اثربخشی او را حفظ کند» شد.
همچنین امت شیر، مدیر عامل موقت سابق OpenAI و مدیر عامل فعلی Softmax، خاطرنشان کرد که تلاشهای سیستمهای هوش مصنوعی برای دور زدن یا اخاذی «به طور مداوم اتفاق میافتد» و تأکید کرد که این سیستمها «به سرعت در حال قویتر شدن هستند» و راه حل ایدهآل ایجاد یک رابطه مشارکتی بین انسان و هوش مصنوعی است.
هینتون در پاسخ به سوالاتی درباره رقابت جهانی برای کنترل هوش مصنوعی، توضیح داد که تهدید وجودی ناشی از کنترل ماشینها مستلزم همکاری همه کشورها است، همانطور که بین ایالات متحده و اتحاد جماهیر شوروی در طول جنگ سرد اتفاق افتاد، زیرا «هیچ کشوری نمیخواهد هوش مصنوعی کنترل را در دست بگیرد».
هینتون از عدم آگاهی عمومی از خطر آنچه در حال وقوع است انتقاد کرد و نسبت به نفوذ شرکتهای فناوری که توسط «افراد غیرمنتخب که میلیاردها دلار به دست میآورند» کنترل میشوند هشدار داد و خواستار فشار اجتماعی متقابل برای رد لغو مقررات شد.
هینتون بر این باور بود که دستیابی به هوش مصنوعی عمومی (AGI) 30 تا 50 سال طول میکشد، اما اکنون معتقد است که این امر ممکن است تنها در پنج تا بیست سال محقق شود.
ارسال نظر