خطرات ناشی از هوش مصنوعی دقیقاً چیست؟

در اواخر ماه مارس، بیش از 1000 رهبر فناوری، محقق و دیگر صاحب نظران فعال در حوزه هوش مصنوعی و اطراف آن نامه‌ای سرگشاده امضا کردند که هشدار می‌داد فناوری‌های هوش مصنوعی «خطرات عمیقی برای جامعه و بشریت» دارند.

این گروه شامل ایلان ماسک، مدیر اجرایی تسلا و مالک توییتر، از آزمایشگاه‌های هوش مصنوعی خواست تا توسعه قدرتمندترین سیستم‌های خود را به مدت شش ماه متوقف کنند تا بتوانند خطرات پشت این فناوری را بهتر درک کنند.

در این نامه آمده است: «سیستم‌های قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آن‌ها مثبت و خطرات آن‌ها قابل کنترل خواهد بود».

نامه ای که اکنون بیش از 27000 امضا دارد، کوتاه بود. زبانش گسترده بود. و برخی از نام های پشت نامه به نظر می رسید که رابطه متناقضی با AI Mr. به عنوان مثال، ماسک در حال ساخت استارت آپ هوش مصنوعی خود است و او یکی از اهداکنندگان اصلی به سازمانی است که نامه را نوشته است.

اما این نامه نشان دهنده نگرانی فزاینده ای در میان کارشناسان هوش مصنوعی بود که جدیدترین سیستم ها، به ویژه GPT-4، فناوری معرفی شده توسط استارت آپ OpenAI در سانفرانسیسکو، می تواند به جامعه آسیب برساند. آنها معتقد بودند سیستم های آینده حتی خطرناک تر خواهند بود.

برخی از خطرات وارد شده است. دیگران برای ماه ها یا سال ها این کار را نمی کنند. برخی دیگر کاملاً فرضی هستند.

یوشوا بنجیو، پروفسور و محقق هوش مصنوعی در دانشگاه مونترال، می گوید: «توانایی ما برای درک اینکه چه چیزی ممکن است با سیستم های هوش مصنوعی بسیار قدرتمند اشتباه کند، بسیار ضعیف است. بنابراین ما باید بسیار مراقب باشیم.»

دکتر. بنژیو شاید مهمترین فردی باشد که نامه را امضا کرده است.

کار با دو آکادمیک دیگر – جفری هینتون، تا همین اواخر محقق در گوگل، و یان لیکان، اکنون دانشمند ارشد هوش مصنوعی در متا، صاحب فیس بوک – دکتر. Bengio چهار دهه گذشته را صرف توسعه فناوری هایی کرد که سیستم هایی مانند GPT-4 را هدایت می کند. در سال 2018، محققان جایزه تورینگ را که اغلب «جایزه نوبل محاسبات» نامیده می‌شود، برای کارشان بر روی شبکه‌های عصبی دریافت کردند.

شبکه عصبی یک سیستم ریاضی است که با تجزیه و تحلیل داده ها مهارت ها را یاد می گیرد. حدود پنج سال پیش، شرکت‌هایی مانند گوگل، مایکروسافت و OpenAI شروع به ساخت شبکه‌های عصبی کردند که از حجم عظیمی از متن دیجیتالی به نام مدل‌های زبان بزرگ یا LLM یاد می‌گرفتند.

با مشخص کردن الگوهای موجود در آن متن، LLM ها یاد می گیرند که متن خود را تولید کنند، از جمله پست های وبلاگ، اشعار و برنامه های کامپیوتری. آنها حتی می توانند به گفتگو ادامه دهند.

این فناوری می تواند به برنامه نویسان کامپیوتر، نویسندگان و سایر کارگران کمک کند تا ایده های خود را تولید کنند و کارها را با سرعت بیشتری انجام دهند. اما دکتر Bengio و دیگر کارشناسان همچنین هشدار دادند که LLM ها می توانند رفتارهای ناخواسته و غیرمنتظره را بیاموزند.

این سیستم ها می توانند اطلاعات غیرواقعی، مغرضانه و در غیر این صورت سمی تولید کنند. سیستم هایی مانند GPT-4 حقایق را اشتباه می گیرند و اطلاعات را می سازند، پدیده ای به نام “توهم”.

شرکت ها روی این مشکلات کار می کنند. اما کارشناسانی مانند Dr. Bengio نگران است که با قوی‌تر کردن این سیستم‌ها توسط محققان، خطرات جدیدی را معرفی کنند.

از آنجایی که این سیستم‌ها اطلاعات را با اطمینان کامل ارائه می‌کنند، در هنگام استفاده از آن‌ها می‌توان برای جدا کردن حقیقت از تخیل تلاش کرد. کارشناسان نگران این هستند که مردم برای مشاوره پزشکی، حمایت عاطفی و اطلاعات خامی که برای تصمیم گیری استفاده می کنند به این سیستم ها اعتماد کنند.

Subbarao Kambhampati، استاد علوم کامپیوتر در دانشگاه ایالتی آریزونا، گفت: “هیچ تضمینی وجود ندارد که این سیستم ها در هر کاری که به آنها می دهید درست باشند.”

کارشناسان همچنین نگران هستند که مردم از این سیستم ها برای انتشار اطلاعات نادرست سوء استفاده کنند. از آنجا که آنها می توانند به روش های انسانی صحبت کنند، می توانند به طرز شگفت آوری متقاعد کننده باشند.

ما اکنون سیستم هایی داریم که می توانند از طریق زبان طبیعی با ما تعامل داشته باشند و نمی توانیم واقعی را از جعلی تشخیص دهیم. بنژیو گفت.

کارشناسان نگران هستند که هوش مصنوعی جدید ممکن است قاتلان شغل باشد. در حال حاضر، فناوری‌هایی مانند GPT-4 مکمل کارگران انسانی هستند. اما OpenAI اذعان می‌کند که می‌توانند جایگزین برخی از کارگران، از جمله افرادی که محتوا را در اینترنت تعدیل می‌کنند، شوند.

آنها هنوز نمی توانند کار وکلا، حسابداران یا پزشکان را تکرار کنند. اما آنها می توانند جایگزین مشاوران حقوقی، دستیاران شخصی و مترجمان شوند.

مقاله ای که توسط محققان OpenAI نوشته شده است تخمین زده است که 80 درصد از نیروی کار ایالات متحده می توانند حداقل 10 درصد از وظایف کاری خود را تحت تأثیر LLM قرار دهند و 19 درصد از کارگران ممکن است حداقل 50 درصد از وظایف خود را تحت تأثیر قرار دهند.

اورن اتزیونی، مدیر اجرایی مؤسسه هوش مصنوعی آلن، یک آزمایشگاه تحقیقاتی در سیاتل، می‌گوید: «نشانه‌ای وجود دارد که مشاغل معمولی از بین خواهند رفت.

برخی از افرادی که نامه را امضا کرده اند نیز معتقدند هوش مصنوعی می تواند از کنترل ما خارج شود یا بشریت را نابود کند. اما بسیاری از کارشناسان می گویند که این به شدت بیش از حد است.

این نامه توسط گروهی از مؤسسه Future of Life نوشته شده است، سازمانی که به بررسی خطرات وجودی برای بشریت اختصاص دارد. آنها هشدار می دهند که از آنجایی که سیستم های هوش مصنوعی اغلب رفتارهای غیرمنتظره ای را از حجم عظیمی از داده هایی که تجزیه و تحلیل می کنند یاد می گیرند، می توانند مشکلات جدی و غیرمنتظره ای ایجاد کنند.

آنها نگران هستند که با وصل کردن LLMها به سایر خدمات اینترنتی، این سیستم‌ها قدرت‌های غیرمنتظره‌ای به دست آورند زیرا می‌توانند کد کامپیوتری خود را بنویسند. آنها می گویند اگر توسعه دهندگان به سیستم های قدرتمند هوش مصنوعی اجازه دهند کد خود را اجرا کنند، خطرات جدیدی ایجاد خواهند کرد.

آنتونی آگویر، کیهان‌شناس نظری و فیزیکدان در دانشگاه کالیفرنیا، سانتا کروز و یکی از بنیان‌گذاران آینده‌ی آینده می‌گوید: «اگر به یک برون‌یابی ساده از وضعیت فعلی ما تا سه سال آینده نگاه کنید، همه چیز بسیار عجیب است. موسسه زندگی.

او گفت: «اگر سناریویی با احتمال کمتر را در نظر بگیرید – جایی که همه چیز واقعاً شروع می‌شود، جایی که حکومت واقعی وجود ندارد، جایی که این سیستم‌ها قدرتمندتر از آن چیزی هستند که ما فکر می‌کردیم – آنگاه همه چیز واقعاً دیوانه‌کننده می‌شود.

دکتر. اتزیونی گفت که صحبت از خطر وجودی فرضی است. اما او گفت خطرات دیگر – به ویژه اطلاعات نادرست – دیگر حدس و گمان نیستند.

او گفت: «اکنون ما با مشکلات واقعی روبرو هستیم. “آنها با حسن نیت هستند. آنها نیاز به واکنش مسئولانه دارند. آنها ممکن است به مقررات و قانون نیاز داشته باشند.»

Giovanna Yu

گیک بیکن. ماون قهوه. ارتباط ظریف جذاب. متخصص مواد غذایی به طرز خشمگینی فروتن.

تماس با ما