اجرای هوش مصنوعی سطح GPT-3 روی لپ تاپ، تلفن و...
کد خبر: ۲۷۴۰۶۴
تاریخ انتشار: 2023 April 04    -    ۱۵ فروردين ۱۴۰۲ - ۰۷:۰۰
سرعت تحولات در سرزمین هوش مصنوعی شتاب گرفته. روز جمعه، یک توسعه‌دهنده نرم‌افزار به نام گئورگی گرگانف ابزاری به نام “llama.cpp” ایجاد کرد که می‌تواند مدل جدید زبان بزرگ هوش مصنوعی متا کلاس GPT-۳ یا LLaMA را به صورت محلی روی لپ‌تاپ مک اجرا کند.

حالا دیگر می‌توانید یک مدل هوش مصنوعی سطح GPT-3 را روی لپ تاپ، تلفن و «رزبری پای» خود اجرا کنید(یک پزشک)

حالا دیگر می‌توانید یک مدل هوش مصنوعی سطح GPT-3 را روی لپ تاپ، تلفن و «رزبری پای» خود اجرا کنید(یک پزشک)«تابناک با تو» - سرعت تحولات در سرزمین هوش مصنوعی شتاب گرفته. روز جمعه، یک توسعه‌دهنده نرم‌افزار به نام گئورگی گرگانف ابزاری به نام “llama.cpp” ایجاد کرد که می‌تواند مدل جدید زبان بزرگ هوش مصنوعی متا کلاس GPT-۳ یا LLaMA را به صورت محلی روی لپ‌تاپ مک اجرا کند.

چیزی نگذشته بود که مردم نحوه اجرای LLaMA را در ویندوز نیز بررسی کردند. سپس شخصی آن را در حال اجرا بر روی یک تلفن پیکسل ۶ نشان داد و بعد از آن روی یک «رزبری پای» Raspberry Pi (البته روی این دو تا با سرعت کم).

اگر این روند ادامه پیدا کند، ممکن است روزی رقیب جیبی ChatGPT را دیگر در لپ تاپ و گوشی خودمان داشته باشیم. تصور کنید که بتوانید یادداشت‌های شخصی و هر اطلاعاتی که دوست دارید به دیتابیسش بخورانید و خلاصه تحویل بگیرید! مثلا کل رمان‌ها یا جزوات دانشگاهی و متنون درسی که دوست دارید!

البته فعلا به این مرحله نرسیده‌ایم. (حداقل نه تا امروز)، اما هیچ کس نمی‌داند که هفته آینده چه خواهد شد.

از زمان راه‌اندازی ChatGPT، برخی از افراد از محدودیت‌های داخلی مدل هوش مصنوعی که مانع از بحث درباره موضوعاتی می‌شود که OpenAI حساس می‌داند، ناامید شده‌اند؛ بنابراین رویای یک مدل زبان بزرگ منبع باز (LLM) آغاز شد که هر کسی بتواند بدون سانسور و بدون پرداخت هزینه API به OpenAI به صورت محلی آن را اجرا کند.

البته راه‌حل‌های منبع باز شناخته‌شده‌ای از قبل هم وجود داشتند (مانند GPT-J)، اما به مقدار زیادی RAM و فضای ذخیره‌سازی GPU نیاز دارن. تا امروز جایگزین‌های منبع باز نمی‌توانستند عملکرد سطح GPT-۳ را در سخت افزاری در سطح کاربران عادی به راحتی در دسترس داشته باشند.

اما LLaMA، مدل سایز کوچک‌تری است که می‌تواند در کیفیت و سرعت خروجی‌اش راضی‌مان کند. فقط یک مشکل وجود داشت – متا کد LLaMA را به صورت منبع باز منتشر کرده، اما به صورت کامل فقط برای محققان واجد شرایط.

محدودیت‌های متا در LLaMA زیاد دوام نیاورد، زیرا در ۲ مارس، شخصی به اصطلاح «وزن»‌های LLaMA را در BitTorrent فاش کرد. از آن زمان، انفجاری در توسعه پیرامون LLaMA رخ داد. محقق مستقل هوش مصنوعی سایمون ویلیسون این وضعیت را با انتشار Stable Diffusion، مقایسه کرده. او هیجان زده نوشت امروز صبح برای اولین بار یک مدل زبان کلاس GPT-۳ را روی لپ تاپ شخصی خودم اجرا کردم!

به طور معمول، اجرای GPT-۳ به چندین پردازنده گرافیکی A۱۰۰ نیاز دار، اما LLaMA مورد توجه قرار گرفته، زیرا می‌تواند روی یک پردازنده گرافیکی واحد در دسترس کاربران عادی اجرا شود.

اکنون، با بهینه‌سازی‌هایی که اندازه مدل را با استفاده از تکنیکی به نام کوانتیزه‌سازی کاهش می‌دهد، LLaMA می‌تواند روی یک مک M۱ یا یک پردازنده گرافیکی Nvidia اجرا کرد. (اگرچه “llama.cpp” در حال حاضر فقط بر روی CPU اجرا می‌شود.)

حالا دیگر می‌توانید یک مدل هوش مصنوعی سطح GPT-3 را روی لپ تاپ، تلفن و «رزبری پای» خود اجرا کنید(یک پزشک)

لیستی از رویداد‌های قابل توجه مرتبط با LLaMA بر اساس جدول زمانی – ارائه شده توسط ویلیسون در هکر نیوز:

۲۴ فوریه ۲۰۲۳: هوش مصنوعی متا LLaMA رونمایی شد.
۲ مارس ۲۰۲۳: شخصی مدل‌های LLaMA را از طریق BitTorrent افشاکرد.
۱۰ مارس ۲۰۲۳: گئورگی گرگانوف llama.cpp را ایجاد کرد که می‌تواند روی M۱ Mac اجرا شود.
۱۱ مارس ۲۰۲۳: اجرای LLaMA ۷B (به سرعت کم) را روی Raspberry Pi ۴ با ۴ گیگابایت رم.
۱۳ مارس ۲۰۲۳: شخصی llama.cpp را روی تلفن Pixel ۶ اجرا کرد. باز با سرعت کم.
۱۳ مارس ۲۰۲۳، ۲۰۲۳: استنفورد Alpaca ۷B را منتشر کرد، یک نسخه تنظیم‌شده با دستورالعمل از LLaMA ۷B که عملکردی مشابه با text-davinci-۰۰۳ OpenAI دارد، اما روی سخت‌افزار بسیار کم‌قدرت اجرا می‌شود.

البته اجرای LLaMA در مک چندان هم ساده نیست. در واقع یک تمرین نسبتاً فنی برای شماست. شما باید پایتون و Xcode را نصب کنید و با کار بر روی خط فرمان آشنا باشید. ویلیسون دستورالعمل‌های گام به گام خوبی برای هر کسی که مایل به انجام آن است دارد.

در مورد پیامد‌های عرضه همگانی این فناوری هنوز کسی نمی‌داند. در حالی که برخی نگران تأثیر هوش مصنوعی به عنوان ابزاری برای انتشار هرزنامه و اطلاعات نادرست هستند، برخی به کاربرد‌های خوبش فکر می‌کنند.

منبع: یک پزشک

نام:
ایمیل:
* نظر:
آخرین اخبار