عملی شدن دنیای گزارش اقلیت؟
کد خبر: ۲۵۴۵۵۹
تاریخ انتشار: 2022 August 24    -    ۰۲ شهريور ۱۴۰۱ - ۰۷:۰۰
bato-adv
bato-adv
الگوریتمی که می‌تواند جرم‌های آینده را با دقت ۹۰ درصد پیش‌بینی کند!
در فیلم گزارش اقلیت Minority Report به کارگردانی استیون اسپیلبرگ و بازی تام کروز، داستان در سال ۲۰۵۴ رخ می‌دهد. در این زمان سیستمی اختراع شده که می‌تواند جرائم را پیش از وقوع پیش‌بینی کند و بدین ترتیب مأموران اجرایی پیش از وقوع جنایت جلوی آن را می‌گیرند و مدت‌ها است که دیگر جنایتی رخ نداده‌. اما همین سیستم پیچیده هم ممکن است فریب بخورد …

الگوریتمی که می‌تواند جرم‌های آینده را با دقت ۹۰ درصد پیش‌بینی کند! عملی شدن دنیای گزارش اقلیت؟

الگوریتمی که می‌تواند جرم‌های آینده را با دقت ۹۰ درصد پیش‌بینی کند! عملی شدن دنیای گزارش اقلیت؟«تابناک با تو» - در فیلم گزارش اقلیت Minority Report به کارگردانی استیون اسپیلبرگ و بازی تام کروز، داستان در سال ۲۰۵۴ رخ می‌دهد. در این زمان سیستمی اختراع شده که می‌تواند جرائم را پیش از وقوع پیش‌بینی کند و بدین ترتیب مأموران اجرایی پیش از وقوع جنایت جلوی آن را می‌گیرند و مدت‌ها است که دیگر جنایتی رخ نداده‌. اما همین سیستم پیچیده هم ممکن است فریب بخورد …

الگوریتمی که می‌تواند جرم‌های آینده را با دقت ۹۰ درصد پیش‌بینی کند! عملی شدن دنیای گزارش اقلیت؟

اما ظاهرا ما ۳ دهه زودتر از زمان وقوع داستان این فیلم، ما به سوی عملی کردن آن پیش خواهیم رفت. البته نه به آن صورت که در داستان فیلم تخیل شده است.

پروفسور ایشانو چاتوپادیای، آزمایشگاه ZeD در دانشگاه شیکاگو را رهبری می‌کند و در آنجا الگوریتم‌ها و داده‌ها را مطالعه می‌کند و توسعه می‌دهد. او هوش مصنوعی‌ای ساخته که می‌تواند جنایات را چند روز قبل از وقوع واقعی پیش‌بینی کند. گفته می‌شود که الگوریتم او یک هفته قبل از وقوع یک سری جرم با موفقیت آنها را پیشبینی کرده.

او در این مورد می‌گوید: «شهر شیکاگو و هفت شهر دیگر که روی آنها متمرکز بودیم، شروع به انتشار گزارش رویداد‌های جرم و جنایت کرده بودند. در شیکاگو، این‌ گزارش‌ها با یک هفته تأخیر به روز می‌شوند. این گزارش‌ها حاوی اطلاعاتی درباره آنچه اتفاق افتاده، نوع جنایت، محل وقوع، طول و عرض جغرافیایی و زمان رخداد است.

بنابراین ما با با استفاده از این گزارش‌ها، شهر را به صورت دیجیتالی به مناطق کوچک ۳۰۰ متر مربعی تقسیم کردیم و مستند کردیم که جرم‌های خشن و قتل و دزدی در کدام از این بلوک‌ها رخ داده است.»

سپس الگوریتم آنها چگالی جرم‌ها و تاثیر بر آنها بر یکدیگر را در یک مدل پیچیده بررسی کردند.

و سرانجام مدل آنها به جایی رسید که از یک هفته قبل می‌تواند بگوید در یک بلوک خاص با اختلاف زمانی مثبت یا منفی یک روز احتمالا چه جرمی رخ خواهد داد!

مردم نگرانند که از این الگوریتم به عنوان ابزاری برای زندانی کردن افراد قبل از ارتکاب جرم استفاده شود. این امر اتفاق نمی‌افتد، زیرا اصلا الگوریتم توانایی انجام آن را ندارد.

این الگوریتم فقط یک رویداد را در یک مکان خاص پیش‌بینی می‌کند. این الگوریتم به شما نمی‌گوید که چه کسی قرار است رویداد را انجام دهد یا جزئیات آن چطور هستند.

در شیکاگو، اکثر افرادی که جان خود را در جنایات خشونت‌آمیز از دست می‌دهند، عمدتاً به دلیل خشونت گروهی جان می‌سپارند. یعنی اکثر قتل‌ها چیزهای پیچیده‌ در حد داستان‌های شرلوک هولمز نیستند. از یک هفته قبل می‌شود احتمال رخ دادن آن را پیشبینی کرد و با تشدید اجرای قانون و اعزام افسران پلیس به آنجا با آنها مقابله کرد، اما راه‌های دیگری نیز برای مداخله اجتماعی وجود دارد تا احتمال وقوع جرم در واقع کاهش یابد و در حالت ایده‌آل، هرگز اتفاق نیفتد.

کاری که این دانشمندان می‌خواهند انجام دهند این است که نوعی بهینه‌سازی سیاست را سبب شوند. آنها می‌گویند که تنها داشتن الگوریتم کافی نیست. آنها از شهردار یا مدیران می‌خواهند که از مدل تولید شده برای انجام شبیه‌سازی‌ها و اطلاع‌رسانی در مورد سیاست‌های خود استفاده کنند.

البته سابق بر این هم الگوریتم‌هایی با همین هدف ایجاد شده بودند، اما از آنها انتقاد شده بود که سوگیری دارند و روی پروفایل‌های نژادی خاصی تمرکز دارند.

روش‌هایی که قبلاً امتحان شده‌اند عبارتند از یادگیری ماشینی مستقیم و ابزار‌هایی که در آنها کلان داده‌ها با یک شبکه عصبی پیچیده تحلیل می‌شوند.

مشکل این رویکردها این بود که روی برخی ویژگی‌ها مهم تمرکز داشتند و با در نظر گرفتن بقیه، منجر به دادن نتایج گمراه‌کننده‌ می‌شدند. این اتفاق در اداره پلیس شیکاگو [در سال ۲۰۱۴-۲۰۱۶] رخ داد. آن‌ها با استفاده از معادله‌ای شامل ویژگی‌هایی مانند سابقه دستگیری، افرادی را در فهرست قرار می‌دادند که احتمالاً مرتکب یا قربانی خشونت‌های مسلحانه بودند و این باعث شد که بخش بزرگی از سیاهپوستان در لیست قرار بگیرند.

اما در الگوریتم جدید دانشمندان تلاش می کنند که فقط از گزارش‌های رویداد استفاده کنند و خود عوامل تصمیم نمی‌گیرند که چه ویژگی‌هایی جرم‌خیزی را در الویت قرار بدهند. ورودی دستی بسیار کمی وجود دارد. پس سوگیری کهش پیدا می‌کند.

اما باز هم مردم نگران هستند. چون دیگر شیوه کار سیستم‌های هوش مصنوعی برای مدل‌سازی‌ سیستم‌های پیچیده‌ به سادگی نمی‌تواند توسط انسان‌ها درک شود و آنهاشبیه جعبه سیاه به نظر می‌رسند. در سیستم‌های تحلیل قدیمی ما با معادلات دیفرانسیلی و ریاضی قابل درک سر و کار داشتیم، اما الان شبکه عصبی غول پیکری داریم.

سازندگان الگوریتم جدید می‌گویند که:

«ما یک مدل واقعاً پیچیده داریم، مدلی که نمی‌توانید به سادگی به آن نگاه کنید و عوامل تاثیرگذار در پیشبینی‌های آن را حدس بزنید. از آنجا که الگوریتم جدید گزارش‌های رویدادهای جرم را در تعامل با عوامل اجتماعی-اقتصادی و جمعیت‌شناسی قرار می‌دهد، شما نمی‌توانید انتظار داشته باشید که یک نوع الگوی ساده از کارکرد آن را درک کنید.»

منبع: یک پزشک

bato-adv
bato-adv
نام:
ایمیل:
* نظر:
bato-adv
bato-adv
آخرین اخبار
bato-adv