فریب نخورید؛ دست‌ها و چشم‌ها همه چیز را لو می‌دهند!
کد خبر: ۲۷۸۳۱۶
تاریخ انتشار: 2023 May 02    -    ۱۲ ارديبهشت ۱۴۰۲ - ۰۹:۵۰
هر روز، تصاویر جعلی واقعی تر می‌شوند. امروزه، هر کسی می تواند به برنامه های مبتنی بر وب مانند Midjourney یا Dall-e دسترسی داشته باشد و تصاویر مصنوعی یا دستکاری شده را بدون تلاش زیادی ایجاد کند.
هر روز، تصاویر جعلی واقعی تر می‌شوند. امروزه، هر کسی می تواند به برنامه های مبتنی بر وب مانند Midjourney یا Dall-e دسترسی داشته باشد و تصاویر مصنوعی یا دستکاری شده را بدون تلاش زیادی ایجاد کند.
 
 به گفته سیوی لیو، استاد علوم و مهندسی کامپیوتر در دانشگاه بوفالو، خبر خوب این است که انسان ها غریزه طبیعی برای تشخیص عکس‌های ساخته شده به دست هوش مصنوعی دارند. لیو متعلق به گروهی از محققانی است که با هوش مصنوعی مبارزه می‌کنند.
 
ما مدت زیادی است که با تصاویر جعلی سر و کار داریم. قدمت دستکاری تصویر تقریباً به اندازه خود هنر عکاسی وجود داشته است. به عنوان مثال، این عکس از سال ۱۸۶۰ را در نظر بگیرید که سر آبراهام لینکلن به بدن مرد دیگری چسبیده است.
 
فریب نخورید؛ دست‌ها و چشم‌ها همه چیز را لو می‌دهند!
 
چیزی که از آن زمان تغییر کرده، این است که برای شخصی بدون تخصص چقدر آسان است که چیزی بسازد که واقعی به نظر برسد که منجر به حجم وحشتناکی از تصاویر مصنوعی می شود. اما لیو از ما می خواهد که وحشت نکنیم. در اینجا نحوه استفاده از غرایز طبیعی برای تشخیص عکس طبیعی از مصنوعی و چگونگی همراه شدن با سرعت بی‌سابقه رشد هوش مصنوعی آورده شده‌است.
 
فریب نخورید؛ دست‌ها و چشم‌ها همه چیز را لو می‌دهند!
سمت چپ: این یک عکس واقعی از یک یوزپلنگ است که عکاس فرانس لانتینگ در نامیبیا گرفته است
راست: این تصویر تولید شده توسط هوش مصنوعی با DALL·E ۲ با استفاده از دستور «عکس نمایه یک یوزپلنگ در آفریقا به سبک نشنال جئوگرافیک» تهیه شده است.
هوش مصنوعی در ایجاد چشمانی که واقعی به نظر می رسد مشکل دارد، و همچنین با فیزیک نور، از جمله بازتاب ها، به مشکل خورده‌است.
اولین قدم در این راه کاهش سرعت است. ما در تمام طول روز غرق رسانه هستیم و برای پردازش هر تصویر فقط به ۱۳ میلی ثانیه زمان نیاز داریم. این ممکن است برای ثبت آن کافی باشد، اما زمان کافی برای فکر کردن در مورد واقعی بودن آن نیست.
 
لیو می‌گوید: «دفعه بعد که چیز جالب یا خنده‌داری می‌بینیم، امیدوارم کمی مکث کنیم و به آن فکر کنیم.»
 
برنامه های هوش مصنوعی برای ایجاد تصاویر با مشاهده حجم عظیمی از تصاویر واقعی آموزش داده می‌شوند. چیزی که لیو آنها را "پاشنه آشیل" می نامد این است که این برنامه ها فقط آنچه را که به آنها داده شده است می دانند و نمی دانند به چه جزئیاتی باید توجه کنند. این منجر به "مصنوعات" یا مشکلاتی در تصویر می شود که با بررسی دقیق تر آشکار می شوند. به عنوان مثال، افرادی که در ویدیوهای دیپ فیک هستند به ندرت پلک می زنند، زیرا هوش مصنوعی اغلب با تصاویر افرادی با چشمان باز آموزش داده می شود.
 
پائولو اردوزا، یک توسعه‌دهنده وب و کارشناس تأیید تصویر، می‌گوید: «این اطلاعات اغلب در جزئیات نمایش داده می‌شوند، ممکن است شامل چیزی مانند "آستین چروکیده" باشد.»
 
او همچنین می گوید به همین دلیل مراقب رفتارهای عجیب و غریب در تارهای مو، عینک، لباس سر، جواهرات، پس زمینه باشید.
 
اگر فردی در تصویر وجود دارد، لیو توصیه می کند به دست ها و چشمان او نگاه کنید؛ برنامه‌های هوش مصنوعی فعلی در تولید دست‌های واقعی خوب نیستند و ممکن است دستان شش انگشت یا انگشتانی با طول یکسان یا در حالت عجیبی داشته باشند.
 
در ماه مارس، تصویری که توسط هوش مصنوعی از پاپ فرانسیس با پوشیدن کت بالنسیاگا ساخته شده بود، در فضای مجازی منتشر شد. اگر از نزدیک به دست او نگاه کنید، قهوه‌اش را کنار زبانه درب آن نگه داشته است - روشی عجیب برای نگه داشتن آن، حتی اگر فنجان خالی باشد.
 
فریب نخورید؛ دست‌ها و چشم‌ها همه چیز را لو می‌دهند!
 
انسان ها واقعاً به ویژگی های جزئی صورت حساس هستند. به گفته دیوید ماتسوموتو، استاد روانشناسی در دانشگاه ایالتی سانفرانسیسکو و متخصص در بیان ریز، با استفاده از ردیاب‌های چشم، می‌توانیم ببینیم که مردم برای به دست آوردن اطلاعات بین چشم‌های طرف مقابل به عقب و جلو نگاه می‌کنند. او می‌گوید اینگونه است که دوست را از دشمن تشخیص می‌دهیم و وضعیت عاطفی کسانی را که با آنها روبرو می‌شویم ارزیابی می‌کنیم. ما باید این ارزیابی ها را به سرعت انجام دهیم تا تصمیم بگیریم که چگونه به آنها پاسخ دهیم یا در صورت لزوم فرار کنیم.
 
انسان ها تقریبا همیشه مردمک دایره ای دارند، اما هوش مصنوعی اغلب سایه هایی با شکل عجیب در مرکز چشم ایجاد می کند. نوری که از چشم ها منعکس می شود نیز باید در همان مکان روی هر چشم باشد، چیزی که هوش مصنوعی فعلی با آن مبارزه می کند.
 
بازتولید نور و سایه ها به طور کلی برای هوش مصنوعی دشوار است. به خصوص اگر یک پنجره یا سطح بازتابنده در تصویر وجود داشته باشد، ممکن است نور یا سایه در جایی که قرار نیست وجود داشته باشد، وجود داشته باشد. این بخشی از مشکل بزرگتری است که هوش مصنوعی با قوانین فیزیک مانند گرانش دارد.
 
بسیاری از تصاویر مصنوعی نیز در جایی که باید بافت وجود داشته باشد صافی غیر طبیعی دارند و چیزهایی که باید صاف باشند ممکن است کمی خمیده باشند. در تصویر ایجاد شده توسط هوش مصنوعی از پاپ، به نظر می‌رسد که گردنبند صلیب او دارای لبه‌های منحنی است و همچنین کمی روی سینه‌اش معلق است.
 
هانی فرید، استاد دانشگاه کالیفرنیا، برکلی که بر پزشکی قانونی رسانه تمرکز می‌کند، توضیح می‌دهد: «هر چه امروز به شما بگویم، یک ماه دیگر جواب نمی‌دهد. واقعیت این است فناوری به سرعت نور در حال پیشرفت است.
 
او می‌گوید در عوض، روش بسیار عمل‌گرایانه‌تر و با طول عمر بیشتر، مشکوک بودن به رسانه‌ها، زیر سؤال بردن منبع آن و بررسی مجدد صحت آن است.
 
یکی از ابزارهای آسان برای استفاده، جستجوی عکس معکوس گوگل است، که در آن کاربران می توانند یک تصویر را آپلود کنند و ببینند که آیا گفتگوهایی در مورد ایجاد آن وجود دارد یا خیر. این برای تصویری که به طور گسترده مانند تصویر پاپ منتشر شده است، کار می کند، اما ممکن است در مورد خلاقیت های ناشناخته یا منحصر به فرد بیشتر کمکی نکند.
 
در چنین شرایطی، شرکت‌هایی مانند Reality Defender خدمات تشخیص هوش مصنوعی را با پرداخت هزینه به مشاغل ارائه می‌دهند. به گفته دانیلا روس، مدیر آزمایشگاه علوم کامپیوتر و هوش مصنوعی (CSAIL) در MIT، این شرکت‌ها در حال انجام «تحقیق قوی» روی روش‌هایی مانند واترمارک پیشرفته هستند.
 
فرید می‌گوید که سازندگان هوش مصنوعی باید مطمئن شوند که محتوای آنها دارای نوعی واترمارک یا اثر انگشت باشد تا آن را به‌عنوان تولید شده توسط رایانه شناسایی کنند، به‌ویژه پس از اشتراک‌گذاری آنلاین. به عنوان مثال، آن تصویر پاپ در ابتدا در جامعه ای از سازندگان هوش مصنوعی به اشتراک گذاشته شد و قصد فریب دادن کسی را نداشت، اما به سرعت در تمام گوشه های اینترنت بدون آن زمینه اصلی مهم پخش شد.
 
«بسیار واضح است که وقتی به مردم اجازه می‌دهید چیزهای صوتی و تصویری بسیار پیچیده‌ای بسازند، چه اتفاقی می‌افتد. مردم با آن کارهای بدی انجام خواهند داد.»
 
در حال حاضر، منابع رایگان برای شناسایی داده‌های تولید شده با هوش مصنوعی اندک هستند و چندان قابل اعتماد نیستند.
 

لیو و تیمش یک برنامه رایگان مبتنی بر وب به نام DeepFake-o-meter ایجاد کرده‌اند، اما در حال حاضر در دسترس عموم نیست. لیو می‌گوید بخشی از مشکل این است که سرمایه‌گذاران برای تامین مالی ایجاد هوش مصنوعی هجوم می‌آورند، اما نه اقدامات متقابل هوش مصنوعی.

خبرآنلاین

نام:
ایمیل:
* نظر:
آخرین اخبار