• ۱۴۰۳ دوشنبه ۱۳ اسفند
روزنامه در یک نگاه
امکانات
روزنامه در یک نگاه دریافت همه صفحات
تبلیغات
fhk; whnvhj بانک ملی بیمه ملت

30 شماره آخر

  • شماره 5996 -
  • ۱۴۰۳ دوشنبه ۱۳ اسفند

چالش‌هاي اخلاقي هوش مصنوعي

آيا آينده را مي‌توان مهار كرد؟

محمدرضا واعظ شهرستاني

هوش مصنوعي به سرعت در حال تغيير جهان است، اما همراه با تمام پيشرفت‌هايي كه به ارمغان آورده، چالش‌هاي جديدي نيز پديد آمده كه نمي‌توان آن‌ها را ناديده گرفت. از حريم خصوصي تا امنيت، از اشتغال تا تبعيض، به نظر مي‌رسد زندگي روزمره ما ديگر هرگز مانند گذشته نخواهد بود. اما اين چالش‌ها دقيقا چه هستند؟

وقتي ديگر حريم خصوصي معنايي ندارد:

هوش مصنوعي به داده نياز دارد و چه داده‌اي مهم‌تر ازاطلاعات شخصي ما؟ ما معمولا بدون اينكه متوجه باشيم، اجازه مي‌دهيم داده‌هايمان جمع‌آوري شوند، اما اين هميشه بي‌خطرنيست.شايد شما هم گاهي حس كرده‌ايد كه دستيار صوتي گوشي شمامثل Siri يا Google Assistant به مكالماتتان گوش مي‌دهد. مثلا يك‌بار در مورد خريد كفش صحبت كرده‌ايد و چند دقيقه بعد تبليغ همان برند در اينستاگرام نمايش داده شده! در واقع، هوش مصنوعي به كمك ميكروفون و داده‌هايي كه ذخيره مي‌كند، تبليغات را هدفمند مي‌سازد. اما اين سوال پيش مي‌آيد: آيا او هميشه در حال شنود است؟ (1)

همچنين، اگر در شهرهايي مثل لندن يا پكن زندگي كنيد، احتمالا متوجه مي‌شويد كه دوربين‌هاي نظارتي همه‌جا هستند. اين سيستم‌ها، كه با كمك هوش مصنوعي كار مي‌كنند، قادرند چهره افراد را تشخيص دهند و حتي فعاليت‌هاي آنها را رديابي كنند. حالا تصور كنيد دولت از اين فناوري براي كنترل رفتار مردم استفاده كند، مثلا اگر در يك تظاهرات شركت كنيد، فردا ممكن است از كارتان اخراج شويد.

وقتي هوش مصنوعي ناعادلانه رفتار مي‌كند:

ما فكر مي‌كنيم كه ماشين‌ها بي‌طرف هستند، اما در واقعيت، آنها فقط آن‌چه را كه به آنها داده شده پردازش مي‌كنند. اگر داده‌ها مغرضانه باشند، تصميم‌هاي هوش مصنوعي هم مغرضانه خواهند بود.

در سال ۲۰۱۴، شركت آمازون پروژه‌اي را آغاز كرد تا با استفاده از هوش مصنوعي، فرآيند بررسي و امتيازدهي به رزومه‌هاي متقاضيان شغلي را خودكار كند. اين سيستم به رزومه‌ها از يك تا پنج ستاره امتياز مي‌داد. با اين حال، در سال ۲۰۱۵، آمازون متوجه شد كه اين سيستم به‌طور سيستماتيك به رزومه‌هاي زنان براي مشاغل فني مانند برنامه‌نويسي امتياز كمتري مي‌دهد. دليل اين مساله آن بود كه مدل‌هاي رايانه‌اي آمازون بر اساس رزومه‌هاي ارسال‌شده در 10‌سال گذشته آموزش ديده بودند كه بيشتر توسط مردان ارايه شده بودند. اين موضوع باعث شد سيستم به‌طور ناعادلانه‌اي متقاضيان مرد را ترجيح دهد. با وجود تلاش‌هاي آمازون براي اصلاح اين سيستم، تضميني براي حذف كامل تبعيض وجود نداشت؛ بنابراين، اين پروژه در نهايت متوقف شد. (2)

به‌علاوه، تحقيقات نشان داده كه برخي از سيستم‌هاي تشخيص چهره، در شناسايي افراد سياه‌پوست خطاهاي بيشتري دارند. اين اتفاق مي‌تواند نتايج خطرناكي داشته باشد، مثلا در فرودگاه‌ها، پليس به اشتباه فردي بي‌گناه را به جاي يك مجرم تحت تعقيب دستگير كند.

وقتي نمي‌دانيد چرا رد شده‌ايد:

بعضي از الگوريتم‌هاي هوش مصنوعي مانند يك جعبه سياه عمل مي‌كنند. شما نمي‌دانيد كه چگونه تصميم مي‌گيرند، اما زندگي شما را تحت تأثير قرار مي‌دهند. تصور كنيد كه براي دريافت وام به بانك مراجعه مي‌كنيد. هوش مصنوعي اطلاعات مالي شما را بررسي مي‌كند و درخواست شما را رد مي‌كند، اما شما هيچ ايده‌اي نداريد كه چرا!آيا به خاطر يك پرداخت ديرهنگام است؟ به خاطر محل زندگي‌تان؟ بدون شفافيت، امكان اعتراض وجود ندارد. برخي دانشگاه‌ها از هوش مصنوعي براي بررسي درخواست‌هاي دانشجويي استفاده مي‌كنند. اما اگر سيستم تصميم بگيرد كه شما واجد شرايط نيستيد، هيچ راهي براي فهميدن علت آن نداريد. شايد سيستم به اشتباه تشخيص داده كه نمرات شما كم‌تر از حد انتظار است.

وقتي ماشين‌ها بيش از حد مستقل مي‌شوند:

ما در حال ساخت سيستم‌هايي هستيم كه بدون دخالت انسان تصميم مي‌گيرند، اما آيا كنترل آنها هميشه در دست ما خواهد بود؟ در سال ۲۰۱۸، يك خودروي خودران اوبر در حال حركت بود كه يك عابر پياده را تشخيص نداد و با او برخورد كرد. چه كسي مقصر بود؟ مهندساني كه نرم‌افزار را طراحي كرده بودند؟ راننده‌اي كه پشت فرمان بود اما به ماشين اعتماد داشت؟ يا شايد خود ماشين؟ (3)

كشورهاي مختلف در حال توسعه ربات‌هاي نظامي هستند كه مي‌توانند بدون نياز به فرمان انساني، اهداف خود را انتخاب و نابود كنند. اما اگر اين ماشين‌ها اشتباه كنند و افراد غيرنظامي را هدف بگيرند، چه كسي پاسخگو خواهد بود؟

وقتي شغل شما به خطر مي‌افتد:

اتوماسيون باعث حذف بسياري از شغل‌ها شده است. برخي افراد مي‌توانند خود را با تغييرات وفق دهند، اما بسياري ديگر ممكن است از كار بيكار شوند. در برخي فروشگاه‌ها، ديگر نيازي به صندوقدار نيست؛ شما مي‌توانيد محصولات را‌برداريد و بدون ايستادن در صف، از فروشگاه خارج شويد، چون سيستم‌هاي مجهز به هوش مصنوعي خودشان خريد شما را تشخيص مي‌دهند. بسياري از شركت‌ها ديگر نيازي به پشتيبان‌هاي انساني ندارند، زيرا چت‌بات‌هاي هوشمند مي‌توانند به سرعت و بدون وقفه به مشتريان پاسخ دهند. اما اين بدان معناست كه هزاران شغل در اين صنعت از بين رفته است.

وقتي نمي‌توانيد به چيزي كه مي‌بينيد

اعتماد كنيد:

فناوري‌هاي جديد باعث شده‌اند كه مرز بين واقعيت و جعل به‌شدت كمرنگ شود. ديپ‌فيك‌ها و محتواي جعلي، تهديدي جدي براي دنياي ديجيتال هستند و مي‌توانند اطلاعات غلط را در مقياس وسيع گسترش دهند.

در سال ۲۰۱8، يك ويديوي ديپ‌فيك از باراك اوباما منتشر شد كه به نظر مي‌رسيد او در حال بيان نظراتي است كه در واقع هرگز نگفته بود. اين ويديو براي نشان دادن قدرت فناوري ديپ‌فيك ساخته شده بود، اما نشان داد كه چگونه هوش مصنوعي مي‌تواند حقيقت را تغيير دهد و افكار عمومي را تحت تأثير قرار دهد. (4)

در سال ۲۰۱۹، مدير يك شركت بريتانيايي قرباني حمله سايبري شد كه در آن مجرمان از يك الگوريتم تقليد صدا استفاده كردند تا صداي مديرعامل شركت مادر او را شبيه‌سازي كنند. آنها با استفاده از اين فناوري، از او خواستند كه مبلغ زيادي را به يك حساب بانكي منتقل كند. او بدون شك به اين «دستور » اعتماد كرد و پول را انتقال داد، اما بعدا مشخص شد كه اين يك كلاهبرداري پيچيده بوده است. (5)

و اگر روزي هوش مصنوعي

احساسات داشته باشد؟

اگر روزي هوش مصنوعي به سطحي از آگاهي برسد، آيا بايد حقوقي براي آن قائل شويم؟ آيا خاموش كردن يك سيستم آگاه، شبيه به پايان دادن به زندگي يك موجود زنده خواهد بود؟ اين پرسش‌هاي فلسفي و اخلاقي ممكن است در آينده‌اي نه چندان دور، بسيار جدي شوند.

در ژوئن ۲۰۲۲، بليك لموين، مهندس گوگل، ادعا كرد كه مدل زباني LaMDA اين شركت به آگاهي و شعور دست يافته است. اين ادعا پس از آن مطرح شد كه لموين در تعاملات خود با LaMDA، پاسخ‌هايي دريافت كرد كه به نظر مي‌رسيد نشان‌دهنده درك و احساسات انساني است. لموين اين موضوع را با مديران گوگل در ميان گذاشت، اما شركت اين ادعاها را رد كرد و اعلام كرد كه شواهد كافي براي اثبات آگاهي LaMDA وجود ندارد. در پي اين ماجرا، لموين به مرخصي اداري با حقوق فرستاده شد و در نهايت در ژوئيه ۲۰۲۲ از شركت اخراج شد.

اين رويداد بحث‌هاي گسترده‌اي در جامعه علمي درباره آگاهي مصنوعي و معيارهاي سنجش آن برانگيخت. بسياري از متخصصان حوزه هوش مصنوعي، ادعاهاي لموين را رد كرده و معتقدند كه مدل‌هاي زباني مانند LaMDA، صرفا بر اساس الگوهاي آماري عمل مي‌كنند و فاقد درك و آگاهي واقعي هستند. (6)

همچنين، ربات‌هاي انسان‌نما مانند Sophia كه توسط شركت Hanson Robotics توسعه يافته‌اند، قادرند حالات چهره انسان را تقليد كنند و مكالمات پيچيده داشته باشند. برخي حتي معتقدند كه در آينده ممكن است اين ربات‌ها احساساتي شبيه به انسان تجربه كنند. اگر روزي يك ربات مدعي شود كه رنج مي‌برد، آيا ما وظيفه اخلاقي داريم كه به او كمك كنيم؟ (7)

آيا آينده هوش مصنوعي را مي‌توان

كنترل كرد؟

چالش‌هاي اخلاقي هوش مصنوعي هر روز پيچيده‌تر مي‌شوند. اين فناوري، علي‌رغم همه مزاياي خود، مي‌تواند به مشكلات جدي مانند نقض حريم خصوصي، تبعيض، عدم شفافيت، از بين رفتن كنترل انساني، بيكاري گسترده، حملات امنيتي، جعل اطلاعات، و حتي احتمال خودآگاهي هوش مصنوعي منجر شود. براي مقابله با اين چالش‌ها، بايد قوانين و مقررات سخت‌گيرانه‌تري در زمينه توسعه و استفاده از هوش مصنوعي وضع شود. علاوه بر آن، توسعه هوش مصنوعي بايد با نظارت مستمر و اصول اخلاقي همراه باشد تا اطمينان حاصل شود كه اين فناوري در خدمت بشريت باقي مي‌ماند. اما آيا ما واقعا قادر خواهيم بود هوش مصنوعي را در چارچوب‌هاي اخلاقي مهار كنيم؟ يا اين فناوري به مسيري غيرقابل‌كنترل پيش خواهد رفت؟ پاسخ اين پرسش، آينده بشريت را تعيين خواهد كرد.

منابع:

1- Secure Data Recovery, “Smart Device Privacy Concerns: Are Your Devices Spying on You? “, Secure Data Recovery Blog, 2023

2- Jeffrey Dastin, “Amazon scraps secret AI recruiting tool that showed bias against women, “ Reuters, 2018.

3- Puneet Kohli and Anjali Chadha, “Enabling Pedestrian Safety using Computer Vision Techniques: A Case Study of the 2018 Uber Inc. Self-driving Car Crash, “ arXiv, 2018.

4- Chesney, R. & Citron, D., “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, “ California Law Review, 2019.

5- Newman, L., “A Voice Deepfake Was Used to Scam a CEO Out of $243,000, “ Wired, 2019.

6- Metz, C., “Google Engineer Claims AI Chatbot Is Sentient, “ The New York Times, 2022.

7- Gunkel, D. J., “The Machine Question: Critical Perspectives on AI, Robots, and Ethics, “ MIT Press, 2012.

ارسال دیدگاه شما

ورود به حساب کاربری
ایجاد حساب کاربری
عنوان صفحه‌ها
کارتون
کارتون