اقدام تازه انتروپیک برای مقابله با سوءاستفادههای انتخاباتی از هوش مصنوعی
شرکت انتروپیک (Anthropic)، توسعهدهنده هوش مصنوعی کلود (Claude)، روز جمعه مجموعهای از تدابیر جدید برای حفظ سلامت انتخابات را معرفی کرد. این اقدامات با هدف جلوگیری از تبدیل شدن هوش مصنوعی به سلاحی برای انتشار اطلاعات نادرست یا دستکاری افکار عمومی در آستانه انتخابات میاندورهای ۲۰۲۶ آمریکا و سایر رقابتهای انتخاباتی جهانی طراحی شدهاند
این شرکت مستقر در سانفرانسیسکو رویکردی چندجانبه شامل سیستمهای تشخیص خودکار و تستهای استرس در برابر عملیاتهای نفوذ را در دستور کار قرار داده است. سیاستهای استفاده از انتروپیک، بهکارگیری کلود در کارزارهای سیاسی فریبنده، تولید محتوای دیجیتال جعلی برای تاثیرگذاری بر گفتمان سیاسی و مداخله در زیرساختهای رایگیری را ممنوع کرده است.
برای اطمینان از اجرای این قوانین، مدلهای جدید این شرکت تحت آزمایشهای سختگیرانهای قرار گرفتهاند. نتایج نشان میدهد مدلهای کلود اپوس ۴.۷ و کلود سانت ۴.۶ در مواجهه با درخواستهای مخرب، به ترتیب در ۱۰۰ و ۹۹.۸ درصد موارد پاسخهای مناسب و مسئولانه ارائه دادهاند.

