تولید و انتشار اطلاعات نادرست

در آخرین روزهای ماه مه سال جاری، OpenAI اولین گزارش خود را در مورد چگونگی استفاده از ابزارهای هوش مصنوعی این شرکت برای عملیات نفوذ مخفی منتشر کرد و فاش کرد که این شرکت کمپین‌ها و اقداماتی برای انتشار اطلاعات نادرست از روسیه، چین، اسرائیل دارد و باعث ایجاد مزاحمت شده است. ایران.

بر اساس این گزارش، این کشورها از مدل‌های هوش مصنوعی ایجاد شده توسط OpenAI برای ایجاد و ارسال محتوای تبلیغاتی در بستر شبکه‌های اجتماعی و ترجمه محتوای خود به زبان‌های مختلف استفاده کرده‌اند.

با این حال، این گزارش تاکید می کند که هیچ یک از این کمپین ها حمایت عمومی گسترده ای را به دست نیاورده و مخاطبان زیادی را به دست نیاورده است. با این حال، از آنجایی که هوش مصنوعی مولد به سرعت به یک صنعت پررونق تبدیل می‌شود، نگرانی‌های جدی و گسترده‌ای در میان محققان و تنظیم‌کنندگان در مورد پتانسیل آن برای افزایش کمیت و کیفیت اطلاعات نادرست در فضای مجازی وجود دارد. به همین دلیل شرکت‌های فعال در حوزه هوش مصنوعی مانند OpenAI که ابزارهایی مانند GPT Chat را تولید می‌کند، سعی کرده‌اند تا با اقدامات مختلف این نگرانی‌ها را برطرف کرده و حفاظت‌هایی را برای استفاده از فناوری خود معرفی کنند.

گزارش 39 صفحه ای OpenAI که در پایان ماه مه منتشر شد، اینگونه است. یکی این یکی از دقیق ترین گزارش های یک شرکت هوش مصنوعی در مورد استفاده از نرم افزار آن برای مقاصد تبلیغاتی است.

در آن گزارش، OpenAI مدعی شد که محققان این شرکت حساب‌های کاربری مرتبط با پنج عملیات هک مخفی را در سه ماه گذشته پیدا کرده و آن‌ها را معلق کرده‌اند. به گفته این شرکت، این حساب های کاربری متعلق به ترکیبی از بازیگران دولتی و خصوصی در این کشورها بوده است. دو عملیات در روسیه برای تولید و انتشار محتوای انتقادی از ایالات متحده، اوکراین و چندین کشور بالتیک انجام شد. در یکی از این عملیات، یک مدل هوش مصنوعی OpenAI برای اشکال زدایی کد و ایجاد یک ربات هوشمند که در تلگرام ارسال شد، استفاده شد. در طول عملیات نفوذ چین، یک متن مشترک به زبان های انگلیسی، چینی، ژاپنی و کره ای ایجاد شد و متعاقباً در توییتر و مدیوم (شبکه اجتماعی بدون محدودیت برای انتشار محتوا) منتشر شد.

به گزارش گاردین، بخشی دیگر از گزارش تحلیل OpenAI درباره نحوه استفاده از ابزارهای هوش مصنوعی این شرکت برای عملیات نفوذ مخفیانه نیز به اقدامات ایران پرداخته است. در این بخش ادعا شده است که ایران از ابزار هوش مصنوعی OpenAI برای نوشتن مقالاتی با هدف آمریکا و اسرائیل استفاده کرده و آنها را به انگلیسی و فرانسوی ترجمه کرده است.

در ادامه این گزارش همچنین به سوء استفاده اسرائیل از ابزارهای هوش مصنوعی OpenAI اشاره شده و به این موضوع اشاره شده است که یک شرکت سیاسی اسرائیلی به نام Stoic شبکه ای از حساب های کاربری جعلی در شبکه های اجتماعی را برای ایجاد طیف وسیعی از محتوا راه اندازی کرده است، از جمله پست هایی که در آن به تشریح اعتراضات دانشجویان آمریکایی علیه جنگ اسراییل در غزه ضد یهود است.

این گزارش همچنین نشان می‌دهد که چگونه هوش مصنوعی تولیدی در کمپین‌ها و عملیات‌های اطلاعات نادرست به‌عنوان ابزاری برای بهبود جنبه‌های خاصی از تولید محتوا، مانند ایجاد پست‌های جذاب‌تر به زبان خارجی، و نه فقط به عنوان یک ابزار تبلیغاتی استفاده می‌شود در این گزارش آمده است که هوش تا حدودی، اما هیچ کدام تنها به هوش مصنوعی متکی نبودند. در واقع همه محتوای تولید شده توسط هوش مصنوعی است یکی آنها از جمله انواع محتوای ارسال شده توسط نمایندگان در این کشورها بودند که در کنار قالب های سنتی تر مانند متون دست نویس یا میم های کپی شده از اینترنت استفاده می شدند. اگرچه این کمپین ها تأثیر قابل توجهی نداشتند، اما نشان دادند که چگونه استفاده مخرب از هوش مصنوعی مولد به آنها اجازه می دهد تولید تبلیغات را افزایش دهند. نوشتن، ترجمه و ارسال محتوا اکنون می تواند با کمک ابزارهای هوش مصنوعی آسان تر و کارآمدتر باشد.

با این حال، تعدادی از ناشران اطلاعات نادرست که OpenAI از پلتفرم خود ممنوع کرده بود، قبلاً برای محققان و مقامات شناخته شده بودند. در ماه مارس سال جاری، وزارت خزانه داری آمریکا نیز ظاهرا تحریم هایی را علیه دو مرد روس اعمال کرد یکی آنها از جمله کمپین هایی بودند که توسط OpenAI شناسایی شدند. در همین حال، امسال متا همچنین شرکت اسرائیلی Stoic را به دلیل نقض سیاست‌هایش از پلتفرم خود محروم کرد.

تصمیمی در راستای سیاست کاخ سفید

در طول سال گذشته، هوش مصنوعی مولد بارها در کشورهای سراسر جهان برای تأثیرگذاری بر سیاست و افکار عمومی مورد سوء استفاده قرار گرفته است. جعل عمیق و تولید کمپین های صوتی، تصویری و متنی تولید شده توسط هوش مصنوعی برای ایجاد اختلال در کمپین های انتخاباتی استفاده شده است که منجر به افزایش فشار بر شرکت هایی مانند OpenAI برای محدود کردن استفاده از ابزارهایشان شده است.

با این حال، OpenAI اعلام کرده است که قصد دارد به طور منظم گزارش‌های مشابهی را در مورد عملیات نفوذ مخفی با استفاده از ابزارهای هوش مصنوعی این شرکت منتشر کند و حساب‌های کاربری را که خط‌مشی‌ها و مقررات شرکت را نقض می‌کنند حذف کند.

این شرکت در گذشته کاربران این کشورها را از دسترسی به چت و API GPT خود منع کرده بود، اما پس از انتشار این گزارش تحلیلی از استفاده از ابزارهای هوش مصنوعی OpenAI برای عملیات نفوذ مخفیانه و در دو هفته اخیر در ایمیل اعلام کرد که اجرای این محدودیت ها گسترده خواهد بود.

اگرچه OpenAI جزئیاتی در مورد دلایل این تصمیم ارائه نکرده است، اما به نظر می رسد این تصمیم همزمان با تلاش های کاخ سفید برای جلوگیری از دسترسی کشورهایی مانند چین، روسیه و ایران به فناوری های پیشرفته هوش مصنوعی آمریکایی است.

در همین حال، بر اساس برخی گزارش ها، کاربران چینی همچنان می توانستند از ابزارهای OpenAI از طریق پلتفرم محاسبات ابری Microsoft Azure استفاده کنند. از آنجایی که مایکروسافت و OpenAI همکاری نزدیکی با هم دارند، مایکروسافت دسترسی خوبی به ابزارها و محصولات این شرکت دارد.

در واقع، گزارش وب‌سایت The Information همچنین بیان می‌کند که با چندین مشتری چینی که می‌توانند از مدل‌های مکالمه هوش مصنوعی OpenAI استفاده کنند، صحبت کرده است. پلتفرم Azure مایکروسافت به کاربران اجازه می دهد تا داده های خود را یکپارچه کنند و با استفاده از زبان و مدل های تصویری شخصی سازی شده هوش مصنوعی خود، پرسش ها و پاسخ های سفارشی را انجام دهند.

پس از انتشار اخباری مبنی بر اعمال محدودیت‌های گسترده‌تر OpenAI برای کاربران در روسیه، ایران و چین، مایکروسافت تأیید کرد که به ارائه خدمات ابری Azure به کاربران هنگ‌کنگ ادامه خواهد داد. حال باید دید ادامه جنگ ژئوپلیتیک در حوزه هوش مصنوعی به کجا ختم خواهد شد.

23302

اخبار مرتبط

ارسال به دیگران :

آخرین اخبار

همکاران ما