صفحه اول
عملکرد شگفت انگیز اخیر به اصطلاح «مدلهای زبان بزرگ» در وهله نخست و مهمتر از همه چت جی پی تی (Chat GPT) عرضه شده توسط Open AI این انتظار را افزایش داده که سیستمهایی که میتوانند با قابلیتهای شناختی انسانها مطابقت داشته باشند یا حتی دارای هوش «فوق بشری» باشند به زودی به واقعیت تبدیل خواهند شد. به گزارش آسیا تایمز، همزمان با این روند کارشناسان هوش مصنوعی هشدارهای هولناکی را در مورد خطراتی مطرح میکنند که توسعه بیشتر و کنترل نشده هوش مصنوعی برای جامعه یا حتی بقای نژاد بشر ایجاد میکند. آیا این تبلیغات صرف است؟ یا آن که اکنون نیاز فوری به اقداماتی وجود دارد که باعث کنترل توسعه بیشتر هوش مصنوعی شود حتی اگر به قیمت ممانعت از پیشرفت در این عرصه انقلابی تمام شود؟ در تاریخ ۲۲ مارس نامه سرگشادهای منتشر شد که توسط متخصصان هوش مصنوعی و هم چنین شخصیتهای برجستهای مانند «ایلان ماسک» امضا شده بود و با این بیانیه پایان یافت: «بنابراین، از همه آزمایشگاههای هوش مصنوعی میخواهیم که بلافاصله آموزش سیستمهای هوش مصنوعی قویتر از جی پی تی -۴ (GPT-۴) را دست کم به مدت شش ماه متوقف کنند”. در ادامه آن نامه سرگشاده آمده است: «هوش مصنوعی پیشرفته میتواند نشان دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه ریزی و مدیریت شود. متاسفانه این سطح از برنامه ریزی و مدیریت رخ نمیدهد. در ماههای اخیر شاهد بودیم که آزمایشگاههای هوش مصنوعی در مسابقهای خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر بودهاند که در آن هیچ کس حتی سازندگان آن ذهنهای دیجیتالی نیز نمیتوانند به طور قابل اعتماد آن را کنترل، درک یا پیش بینی کنند. آیا ما باید تمام مشاغل را خودکار کنیم؟ آیا باید در معرض خطر از دست دادن کنترل تمدنمان قرار گیریم»؟ “الیزر یودکوفسکی» که به طور گسترده به عنوان یکی از بنیانگذاران حوزه هوش مصنوعی شناخته میشود در مقالهای در نشریه «تایم» با عنوان «توقف توسعه هوش مصنوعی کافی نیست» بسیار فراتر رفت و نوشت: «ما باید همه چیز را تعطیل کنیم”. او در مقاله خود نوشت: «بسیاری از محققان از جمله من که در این مسائل غرق شدهایم، انتظار داریم که محتملترین نتیجه ساخت یک هوش مصنوعی فوق بشری هوشمند این خواهد بود که به معنای واقعی کلمه همه روی زمین جان شان را از دست خواهند داد. این نه «شاید یک شانس از دور» بلکه «این چیزی است که میتواند رخ دهد» میباشد. چشم اندازی که دانشمندان هوش مصنوعی خواستار توقف کار در حال پیشرفت سریع در حوزه کاری شان ترسیم میکنند تاریخ تسلیحات هستهای را به ما یادآوری میکند. قدرت مخرب حیرت انگیز بمب اتمی که تحقیقات علمی آن را ممکن ساخته بود باعث واکنش انیشتین شده بود. او در آن زمان گفته بود: «آه! دنیا برای آن آماده نیست”.