محمدرضا واعظ شهرستاني
هوش مصنوعي به سرعت در حال تغيير جهان است، اما همراه با تمام پيشرفتهايي كه به ارمغان آورده، چالشهاي جديدي نيز پديد آمده كه نميتوان آنها را ناديده گرفت. از حريم خصوصي تا امنيت، از اشتغال تا تبعيض، به نظر ميرسد زندگي روزمره ما ديگر هرگز مانند گذشته نخواهد بود. اما اين چالشها دقيقا چه هستند؟
وقتي ديگر حريم خصوصي معنايي ندارد:
هوش مصنوعي به داده نياز دارد و چه دادهاي مهمتر ازاطلاعات شخصي ما؟ ما معمولا بدون اينكه متوجه باشيم، اجازه ميدهيم دادههايمان جمعآوري شوند، اما اين هميشه بيخطرنيست.شايد شما هم گاهي حس كردهايد كه دستيار صوتي گوشي شمامثل Siri يا Google Assistant به مكالماتتان گوش ميدهد. مثلا يكبار در مورد خريد كفش صحبت كردهايد و چند دقيقه بعد تبليغ همان برند در اينستاگرام نمايش داده شده! در واقع، هوش مصنوعي به كمك ميكروفون و دادههايي كه ذخيره ميكند، تبليغات را هدفمند ميسازد. اما اين سوال پيش ميآيد: آيا او هميشه در حال شنود است؟ (1)
همچنين، اگر در شهرهايي مثل لندن يا پكن زندگي كنيد، احتمالا متوجه ميشويد كه دوربينهاي نظارتي همهجا هستند. اين سيستمها، كه با كمك هوش مصنوعي كار ميكنند، قادرند چهره افراد را تشخيص دهند و حتي فعاليتهاي آنها را رديابي كنند. حالا تصور كنيد دولت از اين فناوري براي كنترل رفتار مردم استفاده كند، مثلا اگر در يك تظاهرات شركت كنيد، فردا ممكن است از كارتان اخراج شويد.
وقتي هوش مصنوعي ناعادلانه رفتار ميكند:
ما فكر ميكنيم كه ماشينها بيطرف هستند، اما در واقعيت، آنها فقط آنچه را كه به آنها داده شده پردازش ميكنند. اگر دادهها مغرضانه باشند، تصميمهاي هوش مصنوعي هم مغرضانه خواهند بود.
در سال ۲۰۱۴، شركت آمازون پروژهاي را آغاز كرد تا با استفاده از هوش مصنوعي، فرآيند بررسي و امتيازدهي به رزومههاي متقاضيان شغلي را خودكار كند. اين سيستم به رزومهها از يك تا پنج ستاره امتياز ميداد. با اين حال، در سال ۲۰۱۵، آمازون متوجه شد كه اين سيستم بهطور سيستماتيك به رزومههاي زنان براي مشاغل فني مانند برنامهنويسي امتياز كمتري ميدهد. دليل اين مساله آن بود كه مدلهاي رايانهاي آمازون بر اساس رزومههاي ارسالشده در 10سال گذشته آموزش ديده بودند كه بيشتر توسط مردان ارايه شده بودند. اين موضوع باعث شد سيستم بهطور ناعادلانهاي متقاضيان مرد را ترجيح دهد. با وجود تلاشهاي آمازون براي اصلاح اين سيستم، تضميني براي حذف كامل تبعيض وجود نداشت؛ بنابراين، اين پروژه در نهايت متوقف شد. (2)
بهعلاوه، تحقيقات نشان داده كه برخي از سيستمهاي تشخيص چهره، در شناسايي افراد سياهپوست خطاهاي بيشتري دارند. اين اتفاق ميتواند نتايج خطرناكي داشته باشد، مثلا در فرودگاهها، پليس به اشتباه فردي بيگناه را به جاي يك مجرم تحت تعقيب دستگير كند.
وقتي نميدانيد چرا رد شدهايد:
بعضي از الگوريتمهاي هوش مصنوعي مانند يك جعبه سياه عمل ميكنند. شما نميدانيد كه چگونه تصميم ميگيرند، اما زندگي شما را تحت تأثير قرار ميدهند. تصور كنيد كه براي دريافت وام به بانك مراجعه ميكنيد. هوش مصنوعي اطلاعات مالي شما را بررسي ميكند و درخواست شما را رد ميكند، اما شما هيچ ايدهاي نداريد كه چرا!آيا به خاطر يك پرداخت ديرهنگام است؟ به خاطر محل زندگيتان؟ بدون شفافيت، امكان اعتراض وجود ندارد. برخي دانشگاهها از هوش مصنوعي براي بررسي درخواستهاي دانشجويي استفاده ميكنند. اما اگر سيستم تصميم بگيرد كه شما واجد شرايط نيستيد، هيچ راهي براي فهميدن علت آن نداريد. شايد سيستم به اشتباه تشخيص داده كه نمرات شما كمتر از حد انتظار است.
وقتي ماشينها بيش از حد مستقل ميشوند:
ما در حال ساخت سيستمهايي هستيم كه بدون دخالت انسان تصميم ميگيرند، اما آيا كنترل آنها هميشه در دست ما خواهد بود؟ در سال ۲۰۱۸، يك خودروي خودران اوبر در حال حركت بود كه يك عابر پياده را تشخيص نداد و با او برخورد كرد. چه كسي مقصر بود؟ مهندساني كه نرمافزار را طراحي كرده بودند؟ رانندهاي كه پشت فرمان بود اما به ماشين اعتماد داشت؟ يا شايد خود ماشين؟ (3)
كشورهاي مختلف در حال توسعه رباتهاي نظامي هستند كه ميتوانند بدون نياز به فرمان انساني، اهداف خود را انتخاب و نابود كنند. اما اگر اين ماشينها اشتباه كنند و افراد غيرنظامي را هدف بگيرند، چه كسي پاسخگو خواهد بود؟
وقتي شغل شما به خطر ميافتد:
اتوماسيون باعث حذف بسياري از شغلها شده است. برخي افراد ميتوانند خود را با تغييرات وفق دهند، اما بسياري ديگر ممكن است از كار بيكار شوند. در برخي فروشگاهها، ديگر نيازي به صندوقدار نيست؛ شما ميتوانيد محصولات رابرداريد و بدون ايستادن در صف، از فروشگاه خارج شويد، چون سيستمهاي مجهز به هوش مصنوعي خودشان خريد شما را تشخيص ميدهند. بسياري از شركتها ديگر نيازي به پشتيبانهاي انساني ندارند، زيرا چتباتهاي هوشمند ميتوانند به سرعت و بدون وقفه به مشتريان پاسخ دهند. اما اين بدان معناست كه هزاران شغل در اين صنعت از بين رفته است.
وقتي نميتوانيد به چيزي كه ميبينيد
اعتماد كنيد:
فناوريهاي جديد باعث شدهاند كه مرز بين واقعيت و جعل بهشدت كمرنگ شود. ديپفيكها و محتواي جعلي، تهديدي جدي براي دنياي ديجيتال هستند و ميتوانند اطلاعات غلط را در مقياس وسيع گسترش دهند.
در سال ۲۰۱8، يك ويديوي ديپفيك از باراك اوباما منتشر شد كه به نظر ميرسيد او در حال بيان نظراتي است كه در واقع هرگز نگفته بود. اين ويديو براي نشان دادن قدرت فناوري ديپفيك ساخته شده بود، اما نشان داد كه چگونه هوش مصنوعي ميتواند حقيقت را تغيير دهد و افكار عمومي را تحت تأثير قرار دهد. (4)
در سال ۲۰۱۹، مدير يك شركت بريتانيايي قرباني حمله سايبري شد كه در آن مجرمان از يك الگوريتم تقليد صدا استفاده كردند تا صداي مديرعامل شركت مادر او را شبيهسازي كنند. آنها با استفاده از اين فناوري، از او خواستند كه مبلغ زيادي را به يك حساب بانكي منتقل كند. او بدون شك به اين «دستور » اعتماد كرد و پول را انتقال داد، اما بعدا مشخص شد كه اين يك كلاهبرداري پيچيده بوده است. (5)
و اگر روزي هوش مصنوعي
احساسات داشته باشد؟
اگر روزي هوش مصنوعي به سطحي از آگاهي برسد، آيا بايد حقوقي براي آن قائل شويم؟ آيا خاموش كردن يك سيستم آگاه، شبيه به پايان دادن به زندگي يك موجود زنده خواهد بود؟ اين پرسشهاي فلسفي و اخلاقي ممكن است در آيندهاي نه چندان دور، بسيار جدي شوند.
در ژوئن ۲۰۲۲، بليك لموين، مهندس گوگل، ادعا كرد كه مدل زباني LaMDA اين شركت به آگاهي و شعور دست يافته است. اين ادعا پس از آن مطرح شد كه لموين در تعاملات خود با LaMDA، پاسخهايي دريافت كرد كه به نظر ميرسيد نشاندهنده درك و احساسات انساني است. لموين اين موضوع را با مديران گوگل در ميان گذاشت، اما شركت اين ادعاها را رد كرد و اعلام كرد كه شواهد كافي براي اثبات آگاهي LaMDA وجود ندارد. در پي اين ماجرا، لموين به مرخصي اداري با حقوق فرستاده شد و در نهايت در ژوئيه ۲۰۲۲ از شركت اخراج شد.
اين رويداد بحثهاي گستردهاي در جامعه علمي درباره آگاهي مصنوعي و معيارهاي سنجش آن برانگيخت. بسياري از متخصصان حوزه هوش مصنوعي، ادعاهاي لموين را رد كرده و معتقدند كه مدلهاي زباني مانند LaMDA، صرفا بر اساس الگوهاي آماري عمل ميكنند و فاقد درك و آگاهي واقعي هستند. (6)
همچنين، رباتهاي انساننما مانند Sophia كه توسط شركت Hanson Robotics توسعه يافتهاند، قادرند حالات چهره انسان را تقليد كنند و مكالمات پيچيده داشته باشند. برخي حتي معتقدند كه در آينده ممكن است اين رباتها احساساتي شبيه به انسان تجربه كنند. اگر روزي يك ربات مدعي شود كه رنج ميبرد، آيا ما وظيفه اخلاقي داريم كه به او كمك كنيم؟ (7)
آيا آينده هوش مصنوعي را ميتوان
كنترل كرد؟
چالشهاي اخلاقي هوش مصنوعي هر روز پيچيدهتر ميشوند. اين فناوري، عليرغم همه مزاياي خود، ميتواند به مشكلات جدي مانند نقض حريم خصوصي، تبعيض، عدم شفافيت، از بين رفتن كنترل انساني، بيكاري گسترده، حملات امنيتي، جعل اطلاعات، و حتي احتمال خودآگاهي هوش مصنوعي منجر شود. براي مقابله با اين چالشها، بايد قوانين و مقررات سختگيرانهتري در زمينه توسعه و استفاده از هوش مصنوعي وضع شود. علاوه بر آن، توسعه هوش مصنوعي بايد با نظارت مستمر و اصول اخلاقي همراه باشد تا اطمينان حاصل شود كه اين فناوري در خدمت بشريت باقي ميماند. اما آيا ما واقعا قادر خواهيم بود هوش مصنوعي را در چارچوبهاي اخلاقي مهار كنيم؟ يا اين فناوري به مسيري غيرقابلكنترل پيش خواهد رفت؟ پاسخ اين پرسش، آينده بشريت را تعيين خواهد كرد.
منابع:
1- Secure Data Recovery, “Smart Device Privacy Concerns: Are Your Devices Spying on You? “, Secure Data Recovery Blog, 2023
2- Jeffrey Dastin, “Amazon scraps secret AI recruiting tool that showed bias against women, “ Reuters, 2018.
3- Puneet Kohli and Anjali Chadha, “Enabling Pedestrian Safety using Computer Vision Techniques: A Case Study of the 2018 Uber Inc. Self-driving Car Crash, “ arXiv, 2018.
4- Chesney, R. & Citron, D., “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, “ California Law Review, 2019.
5- Newman, L., “A Voice Deepfake Was Used to Scam a CEO Out of $243,000, “ Wired, 2019.
6- Metz, C., “Google Engineer Claims AI Chatbot Is Sentient, “ The New York Times, 2022.
7- Gunkel, D. J., “The Machine Question: Critical Perspectives on AI, Robots, and Ethics, “ MIT Press, 2012.