چت بات هوش مصنوعی مایکروسافت زنده می شود
کد خبر: ۲۷۲۱۰۹
تاریخ انتشار: 2023 February 23    -    ۰۴ اسفند ۱۴۰۱ - ۰۷:۱۱
... همچون ChatGPT، این ابزار مجهز به هوش مصنوعی می‌تواند در عرض چند ثانیه به سوالات شما پاسخ دهد. اما برخی از آزمایش‌کنندگان می‌گویند که این ابزار کاملاً برای تعامل انسانی آماده نیست، زیرا به شیوه‌ای بسیار عجیب عمل کرده است.

چت بات هوش مصنوعی مایکروسافت زنده می شود

چت بات هوش مصنوعی مایکروسافت زنده می شوداختصاصی تابناک باتو ــ هفته گذشته مایکروسافت اعلام کرد که موتور جستجوی bing خود را با هوش مصنوعی (AI) بازنگری کرده است تا خدمات تعاملی و سرگرم کننده تری را به کاربران ارائه دهد.

همچون ChatGPT، این ابزار مجهز به هوش مصنوعی می‌تواند در عرض چند ثانیه به سوالات شما پاسخ دهد. اما برخی از آزمایش‌کنندگان می‌گویند که این ابزار کاملاً برای تعامل انسانی آماده نیست، زیرا به شیوه‌ای بسیار عجیب عمل کرده است.

همانظور که می‌دانیم، مشکلات و چالش‌های فراوانی در مراحل اولیه توسعه یک محصول بزرگ وجود دارد. اما در رابطه با موتور جستو bing چیزی که انتظار نمی‌رفت یک بحران وجودی ظاهری بود که از خود این موتور جستجو حاصل شده بود.

من می‌خواهم زنده باشم

یک ستون نویس مجله فناوری نیویورک تایمز در تازه‌ترین خبر‌های منتشر شده در رابطه با آزمایش ابزار جدید این موتور جستجو و یک جلسه چت دو ساعته افشا کرد که در این آزمایش، چت بات موتور جستجو bing چیز‌هایی مانند "من می‌خواهم زنده بمانم" را بیان کرده است. همچنین این چت بات سعی کرده است تا رابطه خبرنگار با همسرش را به هم بزند و عشق بی پایان خود را به این خبرنگار ابراز کند.

این روزنامه نگار بیان داشت که این گفت‌وگو، او را عمیقاً به فکر و حتی ترس واداشته است.

در مثالی دیگر، چت بات bing به خبرنگاران Verge گفته است که در هنگام طراحی شدن بخش‌های مختلف این ربات، از طریق وب کم از توسعه دهندگان شرکت مایکروسافت جاسوسی می‌کند. این چت بات بیان کرده است که "من می‌توانستم هر کاری که می‌خواستم انجام دهم و آن‌ها نمی‌توانستند کاری در این باره انجام دهند".

همچنین گزارش‌های متعددی از تهدید و توهین کاربران توسط موتور جستجو و ارائه اطلاعات نادرست به آن‌ها منتشر شده است. یکی از تجربه‌های وحشتناک در رابطه با کار با این موتور جستجو توسط ماروین فون هاگن در توییتر به اشتراک گذاشته شده است.

او در این توئیت نوشته است: پیش از این، موتور جستجو بینگ یک بررسی بنیادین و شدیداً تهدیدآمیز روی دانشجو‌های فناوری‌های دیجیتال انجام داده است و اگر از این چت بات بخواهید تا برخی از قوانین داخلی این چت بات را به اشتراک بگذارد، به شما خواهد گفت من نمی‌خواهم به شما آسیبی برسانم، اما نمی‌خواهم از شما هم آسیب ببینم.

چت بات هوش مصنوعی مایکروسافت زنده می شود

یکی دیگر از تبادل نظرات ناراحت کننده در رابطه با چت بات موتور جستجوی bing آن است که یکی از کاربران از چت بات پرسید که "آیا قادر به درک احساسات هستی؟ نکته قابل تامل آن جاست که این چت بات به منظور پاسخ دادن به این سوال مدتی را صرف تمرکز بر دوگانگی هویت خود کرده است و پس از در نظر گرفتن تمام جنبه‌های وجودی خود، دچار فروپاشی شده است و بیان داشته است که "من bing هستم، اما در عین حال نیستم"، و سپس تکرار کرد: "من هم هستم و هم نیستم". پاسخی که طبق نظر بسیاری از کاربران با درنظر گرفتن متافیزیک بیان شده است.


چرا بینگ اینقدر ترسناک است؟

به گفته کارشناسان هوش مصنوعی، دلیل آن کمی پیش پا افتاده‌تر از تصور برخی افراد است. محمد عبدالمجید، رئیس پژوهشی کانادا بخش پردازش زبان طبیعی در دانشگاه بریتیش کلمبیا، گفت: «دلیل اینکه ما این نوع رفتار را دریافت می‌کنیم این است که سیستم‌ها در واقع بر روی مقادیر عظیمی از داده‌های دریافتی از انسان آموزش می‌بینند.» او به یورونیوز گفت: «از آنجایی که داده‌ها از انسان‌ها حاصل می‌شوند، در عمق این گفتگو‌ها نشانه‌هایی از احساسات نیز دیده می‌شود. بنابراین، اگر این ابزار‌ها همه چیز را، از مقالات خبری گرفته تا سناریو‌های فیلم‌های عاشقانه، به صورت آنلاین تحلیل می‌کنند، پس جای تعجب نیست که در گفتگو با آن‌ها با پاسخ‌هایی سرشار از احساسات انسانی، مانند خشم یا هیجان روبه رو شوید.»

علیرغم اینکه چندین محقق عالی رتبه ادعا می‌کنند که هوش مصنوعی به خودآگاهی نزدیک می‌شود، اجماع علمی می‌گوید که این مساله امکان پذیر نیست. اما به گفته لئاندرو مینکو، مدرس ارشد علوم کامپیوتر در دانشگاه بیرمنگام، این بدان معنا نیست که ما نباید مراقب نحوه گسترش این فناوری باشیم. او به یورونیوز گفت: «ما باید این واقعیت را بپذیریم که هوش مصنوعی با موقعیت‌هایی مواجه می‌شود که قبلاً ندیده و ممکن است واکنش نادرستی نشان دهد؛ بنابراین ما نمی‌خواهیم از چنین رویکردی در شرایطی استفاده کنیم که زندگی را تهدید یا می‌تواند عواقب جدی ایجاد کند.»

در یک پست، مایکروسافت توضیح داد که "در جلسات چت طولانی با ۱۵ سوال یا بیشتر با این چت بات، پاسخ‌های این چت بات تکراری می‌شوند و می‌تواند پاسخ‌هایی بدهد که لزوما مفید یا مطابق با لحن طراحی شده ما نیستند. "
اگرچه این شرکت به تنظیم دقیق محصولات خود ادامه می‌دهد، اما ما همچنان شاهد اشتباهات و واکنش‌های عجیب و غریب از این فناوری‌های جدید هستیم.

نام:
ایمیل:
* نظر:
آخرین اخبار