متا و لاما؛ ارتش آمریکا به دنبال استفاده جدید از الگوریتم پلتفرم‌ها

متا و لاما؛ ارتش آمریکا به دنبال استفاده جدید از الگوریتم پلتفرم‌ها

چندی پیش شرکت متا اعلام کرد که مدل‌های هوش مصنوعی تولیدی خود را در اختیار دولت آمریکا قرار خواهد داد تا در مقاصد نظامی- امنیتی مورد استفاده قرار گیرد؛ اقدامی بحث‌برانگیز که برای کاربران این نرم‌افزار یک معضل اخلاقی به وجود آورده است.

به گزارش مجله زنده خبری، متا اعلام کرد که مدل‌های خود، با نام «لاما» را در دسترس سازمان‌های دولتی و شرکای بخش خصوصی آن‌ها که در زمینه دفاع و امنیت ملی فعالیت می‌کنند، قرار می‌دهد. درحالی که این تصمیم با سیاست‌های خود متا هم مغایرت دارد، چرا که طبق قوانین این شرکت، استفاده از مدل هوش مصنوعی لاما در فعالیت‌های نظامی، جنگ، صنایع هسته‌ای، جاسوسی، تروریسم، قاچاق انسان و سوءاستفاده یا آسیب به کودکان ممنوع است.

طبق گزارش‌ها، استثناهای سیاستی متا فقط محدود به آمریکا نیست و شامل نهادهای امنیت ملی در بریتانیا، کانادا، استرالیا و نیوزیلند نیز می‌شود. وضعیتی که نشان‌دهنده شکنندگی روزافزون نرم‌افزارهای هوش مصنوعی متن‌باز است.  

از طرفی قراردادن مدل هوش مصنوعی لاما در اختیار نهادهای امنیتی و نظامی کشورها به این معناست که اطلاعات کاربران فیس‌بوک، اینستاگرام، واتس‌اپ و مسنجر که برخی از نسخه‌های آن‌ها از لاما استفاده می‌کنند ممکن است به صورت ناخواسته در برنامه‌های نظامی که در سراسر جهان مشارکت داشته باشد.

لاما چیست و چگونه عمل می‌کند؟

لاما مجموعه‌ای از مدل‌های زبانی بزرگ (مشابه چت جی‌پی‌تی) و مدل‌های چندحالتی بزرگ است که با داده‌های غیر متنی، از جمله صدا و تصویر، کار می‌کند. شرکت متا، که مالک فیس‌بوک است، لاما را در رقابت با چت جی‌پی‌تی شرکت اپن‌ای‌آی ارائه کرده است. تفاوت اصلی لاما و چت جی‌پی‌تی این است که تمامی مدل‌های لاما به عنوان نرم‌افزار متن‌باز و رایگان معرفی می‌شوند. این یعنی هر کسی می‌تواند کد منبع مدل لاما را دانلود کرده، آن را اجرا و ویرایش کند (در صورتی که سخت‌افزار مناسب را داشته باشد). در مقابل، چت جی‌پی‌تی فقط از طریق اپن ای‌آی قابل دسترسی است.

مؤسسه Open Source Initiative، که مرجع تعریف نرم‌افزارهای متن‌باز است، اخیراً استانداردی برای تعیین هوش مصنوعی متن‌باز منتشر کرده است. این استاندارد «چهار آزادی» را برای طبقه‌بندی یک مدل به عنوان متن‌باز مشخص می‌کند:

– استفاده از سیستم برای هر هدفی، بدون نیاز به کسب مجوز

– مطالعه نحوه کارکرد سیستم و بررسی اجزای آن

– ویرایش سیستم برای هر هدفی، از جمله تغییر در خروجی آن

– به‌اشتراک‌گذاری سیستم با دیگران برای استفاده، با یا بدون تغییرات، برای هر هدفی

درحالی که مدل هوش مصنوعی لاما این شرایط را برآورده نمی‌کند؛ چراکه استفاده تجاری از آن محدودیت‌هایی دارد و فعالیت‌هایی که ممکن است زیان‌بار یا غیرقانونی باشند، ممنوع شده‌اند. همچنین شفافیت لازم درباره داده‌های آموزشی لاما وجود ندارد. با این حال، متا همچنان لاما را به عنوان یک نرم‌افزار متن‌باز معرفی می‌کند.

پیوند خطرناک صنعت فناوری و نظامی

شرکت متا تنها شرکت فناوری تجاری نیست که وارد حوزه کاربردهای نظامی هوش مصنوعی شده است. هفته گذشته، شرکت «آنتروپیک» (Anthropic) نیز اعلام کرد که با شرکت پالانتیر “Palantir” (فعال در تحلیل داده) و خدمات وب آمازون همکاری می‌کند تا دسترسی سازمان‌های اطلاعاتی و دفاعی آمریکا به مدل‌های هوش مصنوعی خود را فراهم کند.

متا از تصمیم خود برای در اختیار قرار دادن مدل هوش مصنوعی لاما به سازمان‌های امنیت ملی آمریکا و پیمانکاران دفاعی حمایت کرده و ادعا می‌کند که این استفاده‌ها مسئولانه و اخلاقی هستند و به رفاه و امنیت آمریکا کمک می‌کنند.

در حالی که متا تاکنون شفافیت لازم را در مورد داده‌هایی که برای آموزش مدل لاما استفاده می‌کند، ارائه نداده است. اما شرکت‌هایی که مدل‌های هوش مصنوعی تولیدی را توسعه می‌دهند، اغلب از داده‌های ورودی کاربران برای بهبود بیشتر مدل‌های خود بهره می‌گیرند و کاربران نیز هنگام استفاده از این ابزارها اطلاعات شخصی زیادی را به اشتراک می‌گذارند.

چت جی‌پی‌تی و دال-ای امکان عدم جمع‌آوری داده‌های کاربران را فراهم می‌کنند؛ اما مشخص نیست که مدل لاما نیز چنین امکانی را ارائه می‌دهد یا خیر. این گزینه برای عدم جمع‌آوری داده‌ها هنگام ثبت‌نام در این خدمات به وضوح نمایش داده نمی‌شود و مسئولیت آگاهی از آن بر عهده کاربران است. با این حال، بیشتر کاربران ممکن است از محل و نحوه استفاده از مدل هوش مصنوعی لاما آگاه نباشند.

به‌ عنوان مثال، آخرین نسخه لاما ابزارهای هوش مصنوعی موجود در فیس‌بوک، اینستاگرام، واتس‌اپ و مسنجر را نیز پشتیبانی می‌کند. هنگامی که کاربران از قابلیت‌های هوش مصنوعی در این پلتفرم‌ها استفاده می‌کنند، در واقع در حال استفاده از لاما هستند.

چالش‌های استفاده از مدل‌های متن بار در حوزه نظامی

یکی از مزایای نرم‌افزارهای متن‌باز، امکان مشارکت و همکاری آزاد در توسعه آن‌هاست. اما این امر می‌تواند منجر به ایجاد سیستم‌هایی منجر شود که به سادگی قابل دستکاری باشند. به عنوان مثال، پس از حمله روسیه به اوکراین در سال ۲۰۲۲، برخی کاربران تغییراتی در نرم‌افزارهای متن‌باز ایجاد کردند تا حمایت خود را از اوکراین نشان دهند.

این تغییرات شامل درج پیام‌های ضد جنگ و حذف فایل‌های سیستمی در رایانه‌های روسی و بلاروسی بود. این جنبش به نرم‌افزار اعتراضی یا «پروتست‌وار» معروف شد.

پیوند نرم‌افزارهای هوش مصنوعی متن‌باز با کاربردهای نظامی احتمالاً این شکنندگی را بیشتر می‌کند، زیرا استحکام نرم‌افزارهای متن‌باز به مشارکت جامعه کاربران عمومی بستگی دارد. در مورد مدل‌های زبانی بزرگ مانند لاما، این مدل‌ها به تعامل و استفاده عمومی نیاز دارند زیرا طراحی آن‌ها بر اساس یک چرخه بازخورد بین کاربران و سیستم هوش مصنوعی بهبود پیدا می‌کند.

استفاده مشترک از ابزارهای هوش مصنوعی متن‌باز بین دو گروه یعنی عموم مردم و نظامیان که نیازها و اهداف متفاوتی دارند، صورت می‌گیرد، تفاوتی که چالش‌های جدیدی را برای هر دو گروه ایجاد خواهد کرد. برای نظامیان، دسترسی آزاد به این معناست که جزئیات عملکرد یک ابزار هوش مصنوعی به راحتی در دسترس است، که این موضوع می‌تواند منجر به مشکلات امنیتی و آسیب‌پذیری شود. برای عموم مردم نیز، نبود شفافیت در مورد نحوه استفاده نظامیان از داده‌های کاربران می‌تواند به یک معضل اخلاقی و انسانی تبدیل شود.  

انتهای پیام

دکمه بازگشت به بالا