هشدار کارشناسان: هوش مصنوعی می‌تواند منجر به 'انقراض بشریت' شود

صدها تن از مدیران شرکت‌های پیشتاز هوش مصنوعی، کارشناسان و استادان دانشگاه خواستار افزایش سطح «خطر انقراض ناشی از هوش مصنوعی» شدند.

A man gestures as he speaks through a mic

سام آلتمن، سرمایه‌گذار چت‌جی‌پی‌تی و مدیرعامل شرکت اوپن ای‌آی، یکی از امضاکنندگان نامه‌ای است که در مورد «خطر انقراض ناشی از هوش مصنوعی» هشدار می‌دهد. Source: AAP / Sven Hoppe/AP

بیش از ۳۵۰ تن از مدیران ارشد شرکت‌های هوش مصنوعی، از جمله مدیرعامل اوپن ای‌آی (OpenAI) سام آلتمن، کارشناسان و استادان دانشگاه در نامه‌ای سرگشاده از سیاست‌گذاران خواسته‌اند که «ریسک انقراض ناشی از هوش مصنوعی» را در ردیف همه‌گیری‌ها و جنگ هسته‌ای قرار دهند.

در این نامه که توسط سازمان غیرانتفاعی موسوم به 'مرکز ایمنی هوش مصنوعی' (CAIS) منتشر شده آمده است: «مبارزه با خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند همه‌گیری‌ها و جنگ هسته‌ای یک اولویت جهانی باشد.»

علاوه بر آقای آلتمن، مدیرعاملان شرکت‌های هوش مصنوعی 'دیپ‌مایند' (DeepMind) و 'آنتروپیک' (Anthropic) و همچنین مدیران ارشدی از شرکت‌های گوگل و مایکروسافت پای این نامه امضا کرده‌اند.
جفری هینتون و یوشوا بنجیو- دو تن از سه نفری که «پدر هوش مصنوعی» خوانده می‌شوند و در سال ۲۰۱۸ به خاطر کارشان در زمینه یادگیری عمیق برنده جایزه تورینگ شدند- و اساتیدی از هاروارد گرفته تا دانشگاه تسینگ‌هوای چین نیز در جمع امضاکنندگان این نامه هستند.

مرکز ایمنی هوش مصنوعی در بیانیه‌ای از شرکت متا که پدر سوم هوش مصنوعی، یان لی‌کان، در آن کار می‌کند، به خاطر خودداری از امضای این نامه انتقاد کرده است.

دن هندریکس، رییس مرکز ایمنی ای‌آی، گفت: «ما از کارمندان مختلف متا خواستیم که امضا کنند.»

این نامه همزمان با نشست شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا در سویدن صادر شده که انتظار می‌رود در آن سیاست‌مداران در مورد وضع مقررات بر هوش مصنوعی بحث و تبادل نظر کنند.
ایلان ماسک و گروهی از کارشناسان و مدیران صنعت هوش مصنوعی اولین کسانی بودند که در ماه اپریل به خطرات احتمالی آن برای جامعه اشاره کردند.

آقای هندریکس گفت: «ما [از ماسک] نیز دعوت کرده‌ایم و امیدواریم که او این هفته نامه را امضا کند.»

پیشرفت‌های اخیر در هوش مصنوعی ابزارهایی را خلق کرده که حامیان آن‌ها می‌گویند می‌توانند در برنامه‌های کاربردی از تشخیص صحی گرفته تا نوشتن دفاعیه‌های حقوقی مورد استفاده قرار گیرند، اما این نگرانی وجود دارد که این فناوری می‌تواند منجر به نقض حریم خصوصی، کمپین‌های اطلاعات نادرست و در نهایت پیدا کردن توانایی «تفکر» شود.

این هشدار دو ماه پس از آن نشر می‌شود که انستیتوت غیرانتفاعی آینده زندگی (FLI) نامه سرگشاده مشابهی را با امضای آقای ماسک و صدها نفر دیگر منتشر کرد و خواستار توقف فوری تحقیقات پیشرفته هوش مصنوعی با ذکر خطرات آن برای بشریت شد.

مکس تِگمارک، رییس انستیتوت آینده زندگی، که یکی از امضاکنندگان نامه جدید نیز هست گفت: «نامه ما موضوع توقف را مطرح کرد و این نامه انقراض را مطرح می‌کند.»

او افزود: «اکنون در نهایت می‌توان یک گفت‌وگوی سازنده را آغاز کرد.»
جفری هینتون، از پیشگامان هوش مصنوعی، پیشتر به خبرگزاری رویترز گفته بود که ای‌آی می‌تواند تهدیدی «فوری‌تر» از تغییرات اقلیمی برای بشریت باشد.

آقای آلتمن، مدیرعامل اوپن ای‌آی، هفته گذشته به لایحه ای‌آی اتحادیه اروپا که در سطح جهان نخستین تلاش برای وضع مقررات بر هوش مصنوعی است، واکنش منفی نشان داد و تهدید کرد که اروپا را ترک خواهد کرد.

اما چند روز بعد در پی انتقادهای سیاست‌مداران موضع خود را تغییر داد.

آقای آلتمن پس از ایجاد سامانه چت‌جی‌پی‌تی تبدیل به چهره هوش مصنوعی در جهان شده است.

اورسولا فون در لاین، رییس کمیسیون اروپا، روز پنج‌شنبه و تیری برِتون، رییس صنعت اتحادیه اروپا، ماه آینده در سان فرانسیسکو با آقای آلتمن دیدار خواهند کرد.

به اشتراك بگذاريد
نشر شده در 31/05/2023 ساعت 10:52am
منبع: AAP, SBS