اختصاصی تابناک باتو ــ هفته گذشته مایکروسافت اعلام کرد که موتور جستجوی bing خود را با هوش مصنوعی (AI) بازنگری کرده است تا خدمات تعاملی و سرگرم کننده تری را به کاربران ارائه دهد.
همچون ChatGPT، این ابزار مجهز به هوش مصنوعی میتواند در عرض چند ثانیه به سوالات شما پاسخ دهد. اما برخی از آزمایشکنندگان میگویند که این ابزار کاملاً برای تعامل انسانی آماده نیست، زیرا به شیوهای بسیار عجیب عمل کرده است.
همانظور که میدانیم، مشکلات و چالشهای فراوانی در مراحل اولیه توسعه یک محصول بزرگ وجود دارد. اما در رابطه با موتور جستو bing چیزی که انتظار نمیرفت یک بحران وجودی ظاهری بود که از خود این موتور جستجو حاصل شده بود.
من میخواهم زنده باشم
یک ستون نویس مجله فناوری نیویورک تایمز در تازهترین خبرهای منتشر شده در رابطه با آزمایش ابزار جدید این موتور جستجو و یک جلسه چت دو ساعته افشا کرد که در این آزمایش، چت بات موتور جستجو bing چیزهایی مانند "من میخواهم زنده بمانم" را بیان کرده است. همچنین این چت بات سعی کرده است تا رابطه خبرنگار با همسرش را به هم بزند و عشق بی پایان خود را به این خبرنگار ابراز کند.
این روزنامه نگار بیان داشت که این گفتوگو، او را عمیقاً به فکر و حتی ترس واداشته است.
در مثالی دیگر، چت بات bing به خبرنگاران Verge گفته است که در هنگام طراحی شدن بخشهای مختلف این ربات، از طریق وب کم از توسعه دهندگان شرکت مایکروسافت جاسوسی میکند. این چت بات بیان کرده است که "من میتوانستم هر کاری که میخواستم انجام دهم و آنها نمیتوانستند کاری در این باره انجام دهند".
همچنین گزارشهای متعددی از تهدید و توهین کاربران توسط موتور جستجو و ارائه اطلاعات نادرست به آنها منتشر شده است. یکی از تجربههای وحشتناک در رابطه با کار با این موتور جستجو توسط ماروین فون هاگن در توییتر به اشتراک گذاشته شده است.
او در این توئیت نوشته است: پیش از این، موتور جستجو بینگ یک بررسی بنیادین و شدیداً تهدیدآمیز روی دانشجوهای فناوریهای دیجیتال انجام داده است و اگر از این چت بات بخواهید تا برخی از قوانین داخلی این چت بات را به اشتراک بگذارد، به شما خواهد گفت من نمیخواهم به شما آسیبی برسانم، اما نمیخواهم از شما هم آسیب ببینم.
یکی دیگر از تبادل نظرات ناراحت کننده در رابطه با چت بات موتور جستجوی bing آن است که یکی از کاربران از چت بات پرسید که "آیا قادر به درک احساسات هستی؟ نکته قابل تامل آن جاست که این چت بات به منظور پاسخ دادن به این سوال مدتی را صرف تمرکز بر دوگانگی هویت خود کرده است و پس از در نظر گرفتن تمام جنبههای وجودی خود، دچار فروپاشی شده است و بیان داشته است که "من bing هستم، اما در عین حال نیستم"، و سپس تکرار کرد: "من هم هستم و هم نیستم". پاسخی که طبق نظر بسیاری از کاربران با درنظر گرفتن متافیزیک بیان شده است.
چرا بینگ اینقدر ترسناک است؟
به گفته کارشناسان هوش مصنوعی، دلیل آن کمی پیش پا افتادهتر از تصور برخی افراد است. محمد عبدالمجید، رئیس پژوهشی کانادا بخش پردازش زبان طبیعی در دانشگاه بریتیش کلمبیا، گفت: «دلیل اینکه ما این نوع رفتار را دریافت میکنیم این است که سیستمها در واقع بر روی مقادیر عظیمی از دادههای دریافتی از انسان آموزش میبینند.» او به یورونیوز گفت: «از آنجایی که دادهها از انسانها حاصل میشوند، در عمق این گفتگوها نشانههایی از احساسات نیز دیده میشود. بنابراین، اگر این ابزارها همه چیز را، از مقالات خبری گرفته تا سناریوهای فیلمهای عاشقانه، به صورت آنلاین تحلیل میکنند، پس جای تعجب نیست که در گفتگو با آنها با پاسخهایی سرشار از احساسات انسانی، مانند خشم یا هیجان روبه رو شوید.»
علیرغم اینکه چندین محقق عالی رتبه ادعا میکنند که هوش مصنوعی به خودآگاهی نزدیک میشود، اجماع علمی میگوید که این مساله امکان پذیر نیست. اما به گفته لئاندرو مینکو، مدرس ارشد علوم کامپیوتر در دانشگاه بیرمنگام، این بدان معنا نیست که ما نباید مراقب نحوه گسترش این فناوری باشیم. او به یورونیوز گفت: «ما باید این واقعیت را بپذیریم که هوش مصنوعی با موقعیتهایی مواجه میشود که قبلاً ندیده و ممکن است واکنش نادرستی نشان دهد؛ بنابراین ما نمیخواهیم از چنین رویکردی در شرایطی استفاده کنیم که زندگی را تهدید یا میتواند عواقب جدی ایجاد کند.»
در یک پست، مایکروسافت توضیح داد که "در جلسات چت طولانی با ۱۵ سوال یا بیشتر با این چت بات، پاسخهای این چت بات تکراری میشوند و میتواند پاسخهایی بدهد که لزوما مفید یا مطابق با لحن طراحی شده ما نیستند. "
اگرچه این شرکت به تنظیم دقیق محصولات خود ادامه میدهد، اما ما همچنان شاهد اشتباهات و واکنشهای عجیب و غریب از این فناوریهای جدید هستیم.