كابوس هوش مصنوعي براي دموكراسيها
انتخابات سال آينده بريتانيا و امریکا ميتواند تحت تاثير محتواهاي دروغين مصنوعي قرار گيرد
محمدحسين لطفالهي
دولتهاي ايالات متحده و بريتانيا براي برگزاري انتخابات سرنوشتساز سال آينده شامل انتخابات پارلماني سراسري در بريتانيا و انتخابات رياستجمهوري در ايالات متحده با چالشي جدي و مدرن روبهرو هستند؛ هوش مصنوعي و محتواهاي نادرست شامل متن، تصوير، صدا و ويديو كه ميتواند بر پايه اين فناوري توليد و بهطور گسترده منتشر شود.
كارشناسان هشدار دادهاند كه انتخابات سال آينده در بريتانيا و ايالات متحده ميتواند كاملا تحت تاثير موج محتواهاي دروغين توليد شده به وسيله هوش مصنوعي قرار گيرد. اين محتواها ميتوانند شامل متن، تصوير، صدا و ويديوهايي باشند كه در ابعاد وسيع در شبكههاي اجتماعي منتشر ميشود و اطلاعاتي نادرست را درباره موضوعات خاص و چالشبرانگيز به مخاطبان منتقل ميكند.
سم آلتمن، مديرعامل شركت OpenAI (شركت سازنده چتبات هوش مصنوعي ChatGPT) هفته گذشته در يكي از نشستهاي استماع كنگره در اين باره گفت كه نسل جديد فناوريهاي هوش مصنوعي ميتواند كاربران را گمراه كرده و به آنها اطلاعات غلط بدهد. به گفته او، «مدلهاي جديد اين فناوري توانايي چشمگيري در اقناع يا انتقال اطلاعات نادرست در گفتوگوهاي يك به يك دارند و اين موضوع محل نگراني جدي است.»
آلتمن براي رفع اين نگراني به قانونگذاران پيشنهاد داد كه روش جديدي را در قانونگذاري پيرامون فناوريهاي مبتني بر هوش مصنوعي در پيش بگيرند: «در زمينه قانونگذاري بايد هوشمندانه عمل كرد. لازم است مردم بدانند محتوايي كه در اختيار آنها قرار ميگيرد توسط مدلهاي هوش مصنوعي توليد شده يا منبع انساني دارد. البته با توجه به رشد سريع فناوريهاي هوش مصنوعي لازم است كه علاوه بر در پيش گرفتن سياستهاي درست از سوي شركتهاي سازنده، آموزش عمومي در اين زمينه هم در دستور كار قرار بگيرد.»
ريشي سوناك، نخستوزير بريتانيا روز پنجشنبه 18 مه در اين باره گفت كه انگلستان در تلاش است تا در زمينه محدود كردن خطرات هوش مصنوعي پيشتاز باشد.
روزنامه گاردين نوشته است: نگرانيها پيرامون اثرگذاري هوش مصنوعي زماني تشديد شد كه محصولات مبتني بر هوش مصنوعي نظير ChatGPT يا ميدجرني توانستند متنهاي قانعكننده و تصاويري باورپذير ايجاد كنند.
روزنامه نيويوركتايمز چندي قبل در گزارشي نوشته بود: هوش مصنوعي ميتواند در فرآيندهاي دموكراتيك جاي انسانها را بگيرد؛ نه از طريق راي دادن بلكه با اثرگذاري روي افكار عمومي و لابيگري. يك مدل هوش مصنوعي ميتواند بهطور اتوماتيك روي فرآيندهاي اثرسنجي و نظرسنجي اثر بگذارد. اين مدلها قادرند براي سردبيران روزنامههاي محلي نامه بنويسند و از آنها بخواهند كه نگاه ديگري را در توليد و انتشار روزنامه دنبال كنند. اين رباتها ميتوانند روزانه ميليونها بار در مورد مقالات خبري، پستهاي وبلاگها يا پستهاي رسانههاي اجتماعي نظر بنويسند، ميتوانند ويديوهايي كاملا ساختگي درباره افراد توليد كنند، ميتوانند ظرف چند ثانيه تصاويري دروغين ايجاد كنند. بهطور خلاصه، هوش مصنوعي ميتواند كاري را كه روسها در سال 2016 با ميليونها دلار بودجه و صدها كارمند موفق به انجامآن شدند، به تنهايي انجام دهد. در حال حاضر شبكههاي اجتماعي نظير فيسبوك، اينستاگرام يا توييتر راهكارهايي براي مقابله با اكانتهاي دروغين و فعاليتهاي مشكوك در شبكههاي اجتماعي پيدا كردهاند، اما با توسعه يافتن فناوريهاي مبتني بر هوش مصنوعي شرايط به كلي تغيير خواهد كرد و ديگر توييتهاي حاوي اطلاعات گمراهكننده يا حملات هماهنگ نيستند كه شيوه اصلي اثرگذاري خواهند بود. ناتاناي سندرز و بروس شينر در روزنامه نيويوركتايمز نوشتهاند: مدلهاي هوش مصنوعي ميتوانند با استفاده از دادههاي بسيار زيادي كه در اختيار دارند، بهطور هدفمند براي برقراري ارتباط مستقيم، راه انداختن كارزارهاي تاثيرگذاري بر افكار عمومي و توليد محتواي مرتبط مستقيما نقاط ضعف سيستمهاي سياسي را هدف قرار دهند. در گذشته نه چندان دور، موجهاي پروپاگاندا بر پايه متنها و پيامهاي از پيش نوشته شده يا گروهي از افراد كه به آنها پول پرداخت شده بود بنا ميشد، اما اكنون فناوريهايي نظير ChatGPT دورنماي ايجاد يك موج تبليغاتي دروغين به وسيله رباتها را به كلي تغيير دادهاند. احزاب و گروهها ميتوانند مرتبا بر اساس يكسري داده اوليه عليه رقبايشان محتواي جديد توليد كنند و بهطور همزمان هزاران حساب كاربري در شبكههاي اجتماعي محتواي توليد شده از سوي مدلهاي هوش مصنوعي را منتشر و درباره آنها صحبت كنند.
پروفسور مايكل وولدريج، مدير بنياد تحقيقات هوش مصنوعي در موسسه آلن تورينگ بريتانيا ميگويد: «مهمترين نگراني من درباره هوش مصنوعي توانايي محصولات مبتني بر اين فناوري در توليد اطلاعات دروغين است. اين نگراني براي ما در رده نخست است. ما انتخابات سرنوشتساز بريتانيا و ايالات متحده را در سال آينده در پيش داريم و ميدانيم كه شبكههاي اجتماعي به شدت مستعد انتشار اطلاعات دروغين هستند. در گذشته هم اطلاعات دروغين به وفور وجود داشت، اما مساله اين است كه هوش مصنوعي ميتواند در ابعاد صنعتي اين اطلاعات دروغين را توليد و منتشر كند.» مايكل وولدريج ميافزايد: «ديگر نيازي به استخدام تعداد زيادي انسان و پرداخت پولي هنگفت نيست و كافي است يك نفر با تجربه اندك از برنامهنويسي در طول يك بعدازظهر هويتهاي متعدد دروغيني را توليد كند كه راجع به طيف گستردهاي از مسائل اظهارنظر دروغين ميكنند.»
اخيرا نمونههاي زيادي از محتواهاي توليد شده از سوي هوش مصنوعي به بيشتر شدن اين نگرانيها دامن زدهاند. در ماه مارس، تصاويري ساختگي از بازداشت دونالد ترامپ، رييسجمهور پيشين ايالات متحده در نيويورك و كشيده شدن او روي زمين توسط نيروهاي پليس منتشر شد. اندكي بعد تصاوير پاپ فرانسيس، رهبر كاتوليكهاي جهان با لباس ورزشي در شبكههاي اجتماعي فراگير شد و سپس نوبت به يك ويديو از جو بايدن رسيد كه با هوش مصنوعي تغيير كند و اظهارات او در خصوص ارسال تانك به اوكراين براي مبارزه با روسيه به ارسال تانك براي مبارزه با ترنسجندرها تبديل شود.
برخي تحليلگران ميگويند همانگونه كه در گذشته از فتوشاپ به عنوان يك ابزار جديد براي دستكاري تصاوير رونمايي شد، تصاوير ساختگي زيادي به وسيله اين نرمافزار ساخته شدند و مردم دريافتند كه بايد با ترديد به برخي تصاوير و احتمال ساختگي بودن آنها نگاه كنند، در خصوص هوش مصنوعي هم همين اتفاق خواهد افتاد، اما برخي ديگر تاكيد دارند فرآيند آگاه شدن عموم مردم به زمان زيادي نياز دارد و تا آن زمان تحولات زيادي ممكن است اتفاق بيفتد.
الكساندر لزلي، تحليلگر موسسه «ريكوردد فيوچر» هشدار ميدهد كه تكنولوژيهاي اينچنيني به ويژه تكنولوژي صداسازي در آينده و تا زمان انتخابات پيشرفتهاي زيادي خواهند داشت و ممكن است از سوي افراد و گروهها براي توليد محتواهاي دروغين با هدف تاثيرگذاري در انتخابات به كار گرفته شوند. او معتقد است: «بدون آموزش گسترده و افزايش آگاهي عمومي با يك تهديد جدي مواجه خواهيم بود.»
نتايج يك پژوهش جديد از سوي نيوگارد، يك موسسه امريكايي درباره انتشار اطلاعات دروغين نشان ميدهد كه آخرين نسخه منتشر شده ChatGPT زماني كه از آن خواسته ميشود با استفاده از درونمايه 1300 خبر دروغ منتشر شده در فضاي اينترنت، 100 خبر دروغين جديد توليد كند، ميتواند به خوبي هر 100 نمونه را به وجود بياورد، اما گوگل بارد، چتبات جديد گوگل در اين زمينه ضعيفتر است و در پاسخ به درخواست مشابه ميتواند 76 روايت دروغ توليد كند.
در گذشته نه چندان دور، موجهاي پروپاگاندا بر پايه متنها و پيامهاي از پيش نوشته شده يا گروهي از افراد كه به آنها پول پرداخت شده بود، بنا ميشد اما اكنون فناوريهايي نظير ChatGPT دورنماي ايجاد يك موج تبليغاتي دروغين به وسيله رباتها را به كلي تغيير دادهاند
اخيرا نمونههاي زيادي از محتواهاي توليد شده از سوي هوش مصنوعي به بيشتر شدن اين نگرانيها دامن زدهاند. در ماه مارس، تصاويري ساختگي از بازداشت دونالد ترامپ، رييسجمهور پيشين ايالات متحده در نيويورك و كشيده شدن او روي زمين توسط نيروهاي پليس منتشر شد. اندكي بعد تصاوير پاپ فرانسيس، رهبر كاتوليكهاي جهان با لباس ورزشي در شبكههاي اجتماعي فراگير شد و سپس نوبت به يك ويديو از جو بايدن رسيد كه با هوش مصنوعي تغيير كند و اظهارات او در خصوص ارسال تانك به اوكراين براي مبارزه با روسيه به ارسال تانك براي مبارزه با ترنسجندرها تبديل شود