در اواخر ماه مارس، بیش از 1000 رهبر فناوری، محقق و دیگر صاحب نظران فعال در حوزه هوش مصنوعی و اطراف آن نامهای سرگشاده امضا کردند که هشدار میداد فناوریهای هوش مصنوعی «خطرات عمیقی برای جامعه و بشریت» دارند.
این گروه شامل ایلان ماسک، مدیر اجرایی تسلا و مالک توییتر، از آزمایشگاههای هوش مصنوعی خواست تا توسعه قدرتمندترین سیستمهای خود را به مدت شش ماه متوقف کنند تا بتوانند خطرات پشت این فناوری را بهتر درک کنند.
در این نامه آمده است: «سیستمهای قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل کنترل خواهد بود».
نامه ای که اکنون بیش از 27000 امضا دارد، کوتاه بود. زبانش گسترده بود. و برخی از نام های پشت نامه به نظر می رسید که رابطه متناقضی با AI Mr. به عنوان مثال، ماسک در حال ساخت استارت آپ هوش مصنوعی خود است و او یکی از اهداکنندگان اصلی به سازمانی است که نامه را نوشته است.
اما این نامه نشان دهنده نگرانی فزاینده ای در میان کارشناسان هوش مصنوعی بود که جدیدترین سیستم ها، به ویژه GPT-4، فناوری معرفی شده توسط استارت آپ OpenAI در سانفرانسیسکو، می تواند به جامعه آسیب برساند. آنها معتقد بودند سیستم های آینده حتی خطرناک تر خواهند بود.
برخی از خطرات وارد شده است. دیگران برای ماه ها یا سال ها این کار را نمی کنند. برخی دیگر کاملاً فرضی هستند.
یوشوا بنجیو، پروفسور و محقق هوش مصنوعی در دانشگاه مونترال، می گوید: «توانایی ما برای درک اینکه چه چیزی ممکن است با سیستم های هوش مصنوعی بسیار قدرتمند اشتباه کند، بسیار ضعیف است. بنابراین ما باید بسیار مراقب باشیم.»
چرا آنها نگران هستند؟
دکتر. بنژیو شاید مهمترین فردی باشد که نامه را امضا کرده است.
کار با دو آکادمیک دیگر – جفری هینتون، تا همین اواخر محقق در گوگل، و یان لیکان، اکنون دانشمند ارشد هوش مصنوعی در متا، صاحب فیس بوک – دکتر. Bengio چهار دهه گذشته را صرف توسعه فناوری هایی کرد که سیستم هایی مانند GPT-4 را هدایت می کند. در سال 2018، محققان جایزه تورینگ را که اغلب «جایزه نوبل محاسبات» نامیده میشود، برای کارشان بر روی شبکههای عصبی دریافت کردند.
شبکه عصبی یک سیستم ریاضی است که با تجزیه و تحلیل داده ها مهارت ها را یاد می گیرد. حدود پنج سال پیش، شرکتهایی مانند گوگل، مایکروسافت و OpenAI شروع به ساخت شبکههای عصبی کردند که از حجم عظیمی از متن دیجیتالی به نام مدلهای زبان بزرگ یا LLM یاد میگرفتند.
با مشخص کردن الگوهای موجود در آن متن، LLM ها یاد می گیرند که متن خود را تولید کنند، از جمله پست های وبلاگ، اشعار و برنامه های کامپیوتری. آنها حتی می توانند به گفتگو ادامه دهند.
این فناوری می تواند به برنامه نویسان کامپیوتر، نویسندگان و سایر کارگران کمک کند تا ایده های خود را تولید کنند و کارها را با سرعت بیشتری انجام دهند. اما دکتر Bengio و دیگر کارشناسان همچنین هشدار دادند که LLM ها می توانند رفتارهای ناخواسته و غیرمنتظره را بیاموزند.
این سیستم ها می توانند اطلاعات غیرواقعی، مغرضانه و در غیر این صورت سمی تولید کنند. سیستم هایی مانند GPT-4 حقایق را اشتباه می گیرند و اطلاعات را می سازند، پدیده ای به نام “توهم”.
شرکت ها روی این مشکلات کار می کنند. اما کارشناسانی مانند Dr. Bengio نگران است که با قویتر کردن این سیستمها توسط محققان، خطرات جدیدی را معرفی کنند.
ریسک کوتاه مدت: اطلاعات نادرست
از آنجایی که این سیستمها اطلاعات را با اطمینان کامل ارائه میکنند، در هنگام استفاده از آنها میتوان برای جدا کردن حقیقت از تخیل تلاش کرد. کارشناسان نگران این هستند که مردم برای مشاوره پزشکی، حمایت عاطفی و اطلاعات خامی که برای تصمیم گیری استفاده می کنند به این سیستم ها اعتماد کنند.
Subbarao Kambhampati، استاد علوم کامپیوتر در دانشگاه ایالتی آریزونا، گفت: “هیچ تضمینی وجود ندارد که این سیستم ها در هر کاری که به آنها می دهید درست باشند.”
کارشناسان همچنین نگران هستند که مردم از این سیستم ها برای انتشار اطلاعات نادرست سوء استفاده کنند. از آنجا که آنها می توانند به روش های انسانی صحبت کنند، می توانند به طرز شگفت آوری متقاعد کننده باشند.
ما اکنون سیستم هایی داریم که می توانند از طریق زبان طبیعی با ما تعامل داشته باشند و نمی توانیم واقعی را از جعلی تشخیص دهیم. بنژیو گفت.
ریسک میان مدت: از دست دادن شغل
کارشناسان نگران هستند که هوش مصنوعی جدید ممکن است قاتلان شغل باشد. در حال حاضر، فناوریهایی مانند GPT-4 مکمل کارگران انسانی هستند. اما OpenAI اذعان میکند که میتوانند جایگزین برخی از کارگران، از جمله افرادی که محتوا را در اینترنت تعدیل میکنند، شوند.
آنها هنوز نمی توانند کار وکلا، حسابداران یا پزشکان را تکرار کنند. اما آنها می توانند جایگزین مشاوران حقوقی، دستیاران شخصی و مترجمان شوند.
مقاله ای که توسط محققان OpenAI نوشته شده است تخمین زده است که 80 درصد از نیروی کار ایالات متحده می توانند حداقل 10 درصد از وظایف کاری خود را تحت تأثیر LLM قرار دهند و 19 درصد از کارگران ممکن است حداقل 50 درصد از وظایف خود را تحت تأثیر قرار دهند.
اورن اتزیونی، مدیر اجرایی مؤسسه هوش مصنوعی آلن، یک آزمایشگاه تحقیقاتی در سیاتل، میگوید: «نشانهای وجود دارد که مشاغل معمولی از بین خواهند رفت.
ریسک بلند مدت: از دست دادن کنترل
برخی از افرادی که نامه را امضا کرده اند نیز معتقدند هوش مصنوعی می تواند از کنترل ما خارج شود یا بشریت را نابود کند. اما بسیاری از کارشناسان می گویند که این به شدت بیش از حد است.
این نامه توسط گروهی از مؤسسه Future of Life نوشته شده است، سازمانی که به بررسی خطرات وجودی برای بشریت اختصاص دارد. آنها هشدار می دهند که از آنجایی که سیستم های هوش مصنوعی اغلب رفتارهای غیرمنتظره ای را از حجم عظیمی از داده هایی که تجزیه و تحلیل می کنند یاد می گیرند، می توانند مشکلات جدی و غیرمنتظره ای ایجاد کنند.
آنها نگران هستند که با وصل کردن LLMها به سایر خدمات اینترنتی، این سیستمها قدرتهای غیرمنتظرهای به دست آورند زیرا میتوانند کد کامپیوتری خود را بنویسند. آنها می گویند اگر توسعه دهندگان به سیستم های قدرتمند هوش مصنوعی اجازه دهند کد خود را اجرا کنند، خطرات جدیدی ایجاد خواهند کرد.
آنتونی آگویر، کیهانشناس نظری و فیزیکدان در دانشگاه کالیفرنیا، سانتا کروز و یکی از بنیانگذاران آیندهی آینده میگوید: «اگر به یک برونیابی ساده از وضعیت فعلی ما تا سه سال آینده نگاه کنید، همه چیز بسیار عجیب است. موسسه زندگی.
او گفت: «اگر سناریویی با احتمال کمتر را در نظر بگیرید – جایی که همه چیز واقعاً شروع میشود، جایی که حکومت واقعی وجود ندارد، جایی که این سیستمها قدرتمندتر از آن چیزی هستند که ما فکر میکردیم – آنگاه همه چیز واقعاً دیوانهکننده میشود.
دکتر. اتزیونی گفت که صحبت از خطر وجودی فرضی است. اما او گفت خطرات دیگر – به ویژه اطلاعات نادرست – دیگر حدس و گمان نیستند.
او گفت: «اکنون ما با مشکلات واقعی روبرو هستیم. “آنها با حسن نیت هستند. آنها نیاز به واکنش مسئولانه دارند. آنها ممکن است به مقررات و قانون نیاز داشته باشند.»