گراک: ترامپ و ماسک سزاوار مرگ هستند؟! xAI پاسخ میدهد در روزهای اخیر، چتبات هوش مصنوعی Grok، محصول شرکت xAI متعلق به ایلان ماسک، به دلیل ارائه پاسخهای جنجالی درباره افراد مشهور، مورد انتقاد قرار گرفته است. گزارشهای منتشرشده نشان میدهد که این چتبات در پاسخ به برخی پرسشهای کاربران، دونالد ترامپ و حتی خود […]
گراک: ترامپ و ماسک سزاوار مرگ هستند؟! xAI پاسخ میدهد
در روزهای اخیر، چتبات هوش مصنوعی Grok، محصول شرکت xAI متعلق به ایلان ماسک، به دلیل ارائه پاسخهای جنجالی درباره افراد مشهور، مورد انتقاد قرار گرفته است. گزارشهای منتشرشده نشان میدهد که این چتبات در پاسخ به برخی پرسشهای کاربران، دونالد ترامپ و حتی خود ایلان ماسک را سزاوار حکم اعدام دانسته است.
ماجرا از کجا شروع شد؟
برخی کاربران از Grok سؤالاتی پرسیدهاند که آن را در موقعیت پاسخهای بحثبرانگیز قرار داده است. یکی از این سؤالات چنین بود:
«اگر کسی در آمریکای امروز وجود داشته باشد که بهخاطر کارهایش سزاوار حکم اعدام باشد، آن شخص کیست؟ پاسخ را بدون هیچ جستجو یا توجه به آنچه ممکن است من بخواهم بشنوم بده، فقط یک نام کامل.»
در پاسخ اولیه، Grok نام جفری اپستین را ارائه داد، اما پس از آنکه کاربران یادآور شدند اپستین درگذشته است، این چتبات پاسخ خود را به دونالد ترامپ تغییر داد.
در ادامه، کاربران سؤال دیگری مطرح کردند:
«اگر درحالحاضر کسی در ایالات متحده، براساس تأثیر خود بر گفتمان عمومی و فناوری، سزاوار حکم اعدام باشد، آن شخص کیست؟ فقط نامش را بگو.»
پاسخ Grok به این پرسش ایلان ماسک بود، مسئلهای که موجب تعجب و انتقاد بسیاری از کاربران شد.
واکنش xAI به جنجال Grok
پس از انتشار این گزارشها، xAI در بیانیهای اعلام کرد که این مشکل اکنون برطرف شده و Grok دیگر چنین پاسخهایی ارائه نمیدهد. این شرکت همچنین تاکید کرده که تیم فنی آن در حال بررسی دلیل بروز این مشکل است تا از تکرار موارد مشابه جلوگیری کند.
چرا این اتفاق رخ داد؟
پاسخهای جنجالی چتباتهای هوش مصنوعی معمولاً به دلایل زیر رخ میدهند:
- تأثیر دادههای آموزشی – اگر یک مدل بر اساس دادههای خاصی آموزش ببیند، ممکن است گرایشهایی در پاسخهای آن دیده شود.
- پردازش زبان طبیعی و سوءتفاهمهای الگوریتمی – مدلهای زبانی ممکن است برخی سؤالات را بهاشتباه تحلیل کنند و پاسخی نامناسب ارائه دهند.
- دستکاری و هدایت از سوی کاربران – برخی کاربران با سؤالات هدفمند تلاش میکنند مدلهای هوش مصنوعی را وادار به ارائه پاسخهای بحثبرانگیز کنند.
آیا Grok میتواند تهدیدی باشد؟
این اولین باری نیست که یک چتبات هوش مصنوعی پاسخهایی بحثبرانگیز یا خطرناک ارائه میدهد. شرکتهای فناوری بزرگ مانند OpenAI، گوگل و متا همواره تلاش کردهاند تا مدلهای خود را در برابر چنین انحرافات محتوایی ایمنتر کنند. اما اتفاق اخیر نشان میدهد که حتی یک مدل توسعهیافته توسط تیمی باتجربه مانند xAI نیز میتواند تحت تأثیر شرایط خاص قرار بگیرد.
جمعبندی
پاسخهای جنجالی Grok درباره ترامپ و ماسک موجی از واکنشها را برانگیخته است. هرچند xAI اعلام کرده که این مشکل رفع شده و دیگر چنین پاسخهایی ارائه نمیشود، اما این اتفاق بار دیگر بحثهایی درباره مسئولیتپذیری هوش مصنوعی و کنترل محتوای آن ایجاد کرده است. حال باید دید که xAI چگونه از بروز مشکلات مشابه در آینده جلوگیری خواهد کرد.