اختصاصی «تابناک باتو» ــ یکی از دانشمندان حوزه هوش مصنوعی بیان کرد که پیشرفتهای صورت گرفته در این زمینه ترسهای فراوانی را برای کارشناسان به همراه داشته و پیشرفت هوش مصنوعی را میتوان با توسعه بمب اتمی مقایسه کرد.
ترس از تأثیرگذاری وسیع هوش مصنوعی در دنیای واقعی
پروفسور استوارت راسل (Stuart Russell) بنیانگذار مرکز هوش مصنوعی سازگار با انسان در دانشگاه کالیفرنیا، بیان میدارد که اکثر کارشناسان معتقدند ماشینهایی هوشمندتر از انسان در این قرن ساخته خواهند شد و به منظور جلوگیری از عواقب احتمالی چنین پیشرفتی، خواستار وضع معاهدات بینالمللی برای تنظیم توسعه تکنولوژی شد.
پروفسور در مصاحبه با گاردین گفت: «انجمن حوزه هوش مصنوعی همچنان با این واقعیت سازگار نشده است که مطالعات حوزه هوش مصنوعی تأثیر بسزایی روی دنیای واقعی داشته است. این مساله در بیشتر تاریخ این حوزه صدق نمیکند؛ برای مثال ما صرفاً در آزمایشگاه بودیم و چیزهای زیادی را توسعه میدادیم، هرچند تلاش کردیم تا آنها را به مرحله کارآمدی برسانیم، عمدتاً در این زمینه شکست میخوردیم؛ بنابراین، مساله تأثیر گذاشتن در دنیای واقعی، به هیچ وجه هدف اصلی نبوده است.
هوش مصنوعی زیربنای بسیاری از جنبههای زندگی مدرن مانند موتورهای جستجو و سیستم بانکداری است. به علاوه، پیشرفت در تشخیص تصویر و ترجمه ماشینی از جمله پیشرفتهای کلیدی حوزه هوش مصنوعی در سالهای اخیر است.
پروفسور راسل که در سال ۱۹۹۵ کتاب Artificial Intelligence: A Modern Approach را تالیف کرد و سخنرانیهایی تحت عنوان "زندگی با هوش مصنوعی" را ارائه خواهد کرد، میگوید: «با توجه به توسعه هوش مصنوعی فوقهوشمند، کارهای ضروری و مهمی میبایست صورت گیرد تا به انسانها این اطمینان خاطر را بدهیم که هوش مصنوعی تحت کنترل باقی میماند.»
او در ادامه بیان داشت: «هوش مصنوعی با یک روش خاص و نوعی رویکرد کلی طراحی شده است و ما به اندازه کافی مراقب نیستیم که از این نوع سیستم در تنظیمات سیستمهای پیچیده موجود در دنیای واقعی استفاده کنیم. به عنوان مثال، استفاده از هوش مصنوعی برای درمان سرطان در سریعترین زمان ممکن میتواند خطرناک باشد.» Russell میگوید: «احتمالاً هوش مصنوعی بتواند راههایی برای القای تومور در کل جمعیت انسانی پیدا کند، به طوری که میلیونها آزمایش را به صورت موازی انجام دهد و از همه ما به عنوان خوکچه هندی استفاده کند و تمام این مسائل به این دلیل هستند که این چنین راه حلها برای هدفی است که ما به هوش مصنوعی داده ایم. ما فقط فراموش کردیم که مشخص کنیم هوش مصنوعی نمیتواند از انسان به عنوان خوکچه هندی استفاده کند، نمیتواند کل تولید ناخالص داخلی جهان را برای اجرای آزمایشات خود مصرف کند و....»
راسل همچنین بیان داشت که هنوز فاصله زیادی بین هوش مصنوعی امروزی و آنچه در فیلمهایی مانند Ex Machina به تصویر کشیده شده است وجود دارد. اما آیندهای با ماشینهایی که از انسانها باهوشتر هستند، در انتظار است. وی بر این باور است که چنین اتفاقی بین ۱۰ سال تا ۱۰۰ سال آینده در خوش بینانهترین حالت ممکن رخ خواهد داد. به بیانی ساده تر، تقریباً همه محققان هوش مصنوعی بر این باورند که این اتفاق در قرن حاضر اتفاق خواهد افتاد.
یکی از نگرانیها آن است که یک ماشین برای ایجاد خطرات جدی، نیازی به هوشمندی بیشتر از انسان در همه چیز ندارد. او گفت: «این چیزی است که اکنون در حال آشکار شدن است. اگر به رسانههای اجتماعی و الگوریتمهایی که انتخاب میکنند مردم چه چیزی بخوانند و تماشا کنند نگاه کنید، متوجه خواهید شد که هوش مصنوعی کنترل زیادی بر ورودیهای شناختی ما دارد. درنتیجه، این سیستمها با دستکاری الگوریتمها کاربر، آنها را شستشوی مغزی میدهند تا رفتار انسان در مورد آنچه که انتخاب میکند تا با آن تعامل کند، قابل پیشبینیتر شود. در برخی موارد، هوش مصنوعی قادر خواهد بود تا درآمد مبتنی بر کلیک را نیز افزایش دهد.»
آیا محققان هوش مصنوعی از موفقیت خود وحشت زده شده اند؟
راسل در این باره میگوید: «بله، من فکر میکنم که ما به طور فزایندهای ترسیده ایم. این مسئله به من یادآوری میکند که در علم فیزیک چه اتفاقی افتاد. جایی که فیزیکدانان میدانستند که انرژی اتمی وجود دارد. آنها میتوانند جرم اتمهای مختلف را اندازه گیری کنند و بفهمند که اگر تبدیل بین انواع مختلف اتمها صورت پذیرد، چه میزان انرژی آزاد میشود.» وی با اشاره به اینکه کارشناسان همیشه بر تئوری بودن انرژی اتمی تاکید داشتند بیان داشت که در نهایت این اتفاق رخ داد و از انرژی اتمی برای اهداف نادرستی بهره گرفته شد.
وی باور دارد که آینده هوش مصنوعی در توسعه ماشینهایی است که میدانند هدف واقعی نامشخص است، همانطور که ترجیحات ما نیز نامشخص است، به این معنی که آنها باید در مورد هر تصمیمی با انسانها مشورت کنند. اما این یک ایده پیچیده است، حداقل به این دلیل که افراد مختلف، ترجیحات متفاوت و گاهی متضاد دارند و این ترجیحات ثابت نیستند.
راسل همچنین خواستار اقداماتی از جمله صدور کد اخلاق برای محققان، وضع قوانین و معاهدات برای اطمینان از ایمنی سیستمهای هوش مصنوعی در حال استفاده و آموزش محققان برای اطمینان از بروز مشکلاتی همچون تعصبات نژادی در حوزه هوش مصنوعی شد. او گفت: «قوانینی همچون قانون اتحادیه اروپا مبنی برممنوعیت جعل هویت انسان توسط ماشین ها، باید در سراسر جهان تصویب شود.»
وی امیدوار است سخنرانیهای BBC Reith lectures بر این نکته تاکید کند که انتخابی در مورد آینده وجود دارد. او گفت: «نقش مردم در این انتخابها مهم است، زیرا این مردم هستند که از این مساله سود خواهند برد. پیشرفت در حوزه هوش مصنوعی زمانبر است؛ با این حال، چنین مسالهای نباید به عنوان یک موضوع علمی تخیلی در نظر گرفته شود.»
منبع: گاردین