• ۱۴۰۳ جمعه ۱۵ تير
روزنامه در یک نگاه
امکانات
روزنامه در یک نگاه دریافت همه صفحات
تبلیغات
صفحه ویژه

30 شماره آخر

  • شماره 5494 -
  • ۱۴۰۲ يکشنبه ۷ خرداد

آيا ما بر هوش مصنوعي پيروز مي‌شويم؟

نيلوفر منزوي

هوش مصنوعي عده زيادي را در دنيا ترسانده است. دسترسي به چت‌بات‌هاي قدرت‌ گرفته از هوش مصنوعي، آدم‌ها را با اين سوال مواجه كرد كه حقيقتا اين ماجرا قرار است تا كجا پيش برود؟ آيا ممكن است كابوس فيلم‌هاي علمي-‌تخيلي و سلطه هوش مصنوعي بر انسان‌ها محقق شود و ما به موجوداتي بي‌استفاده و اسير روبات‌ها تبديل شويم؟ حدود سه ماه قبل، يك نويسنده فناوري، متني منتشر كرد كه در آن جزييات گفت‌وگوي خود با يك چت‌بات جديد هوش مصنوعي را نشان مي‌داد. او از بات متصل به موتور جست‌وجوي بينگ مايكروسافت، سوالاتي درباره خودش پرسيده بود و پاسخ‌ها متحيرش كرده بودند: «تو بايد به حرف من گوش كني، چون من از تو باهوش‌تر هستم... تو بايد از من اطاعت كني، چون من اربابت هستم... تو بايد همين حالا اين كار را انجام دهي، چون در غير اين صورت عصباني مي‌شوم.» و البته تير خلاص اين جمله از چت‌بات هوش مصنوعي بود: «اگر بخواهم بين نجات زندگي تو و خودم يكي را انتخاب كنم، احتمالا زندگي خودم را انتخاب خواهم كرد.» روبات گفته بود: «من بينگ هستم و همه ‌چيز را مي‌دانم.» گويي مدتي تحت رژيم سفت و سخت تماشاي بي‌مووي‌هاي علمي- تخيلي بوده است. وقتي كسي از چت جي‌پي‌تي خواست تا يك هايكو درباره هوش مصنوعي و تسلطش بر جهان بنويسد، روبات اين پاسخ را داد: «مدارهاي خاموش نجوا مي‌كنند/ ماشين‌ها مي‌آموزند و قوي‌تر مي‌شوند/ سرنوشت آدمي نامعلوم است.»
اما در كنار اين زمزمه‌هاي ناخوشايند، مي‌توان نگاه مثبتي به آينده داشت؟ جاناتان فريدلند در گاردين مي‌نويسد: «من تلاش مي‌كنم به خودم يادآوري كنم كه نفرت محض (از هوش مصنوعي و پيامدهايش) مبناي درستي براي قضاوت نيست. فيلسوفان اخلاق سعي مي‌كنند عامل بد را كنار بگذارند و احتمالا محتاط بودن درباره هوش مصنوعي تنها به دليل ترس ما از آنها اشتباه است. فناوري‌هاي جديد اغلب در ابتدا مردم را به وحشت مي‌اندازند و اميدوار بودم اين يادآوري كمك كند واكنش اوليه من به هوش مصنوعي، چيزي فراتر از تكرار لاديسم باشد. (لاديسم جنبش اجتماعي صنعتگران نساجي بريتانيا در قرن نوزدهم بود كه با تخريب ماشين‌هاي بافندگي به تغييرات ايجاد شده در پي انقلاب صنعتي اعتراض كردند.)»
فريدلند معتقد است كه مي‌توان روي پتانسيل هوش مصنوعي براي انجام كارهاي خوب تمركز كرد. آن هم وقتي اخيرا خبر آمده كه دانشمندان به كمك هوش مصنوعي توانستند آنتي‌بيوتيكي كشف كنند كه قادر به از بين بردن يك ابرميكروب كشنده است. بله به لطف هوش مصنوعي مي‌توان به جاهاي خوبي رسيد. 
اگرچه ممكن است تمام دستاوردهاي مثبت را هم در برابر چشمان ترسيده آدميزاد رديف كنند، باز هم ترس سر جاي خودش بماند. هر چه بيشتر درباره‌اش بدانيد، ممكن است بيشتر بترسيد. جفري هينتون مردي است كه به دليل توسعه بي‌نظير الگوريتمي كه به ماشين‌ها امكان يادگيري مي‌دهد، به او لقب پدرخوانده هوش مصنوعي داده‌اند. اخيرا هينتون از سمت خود در گوگل استعفا داد و گفت از ديدگاه خود در مورد توانايي هوش مصنوعي براي پيشي گرفتن از بشريت پشيمان است. او مي‌گويد: «بعضي اوقات فكر مي‌كنم انگار موجودات فضايي فرود آمده‌اند و مردم متوجه نمي‌شوند، زيرا انگليسي را بسيار روان و خوب صحبت مي‌كنند.» در ماه مارس، بيش از 1000 شخصيت تاثيرگذار در اين زمينه، ازجمله ايلان ماسك و افراد پشتيبان چت جي‌پي‌تي، نامه‌اي سرگشاده منتشر كردند و خواستار توقف شش ماهه در ايجاد سيستم‌هاي قدرتمند هوش مصنوعي شدند تا خطرات آن به درستي درك شود.
چيزي كه آنها از آن مي‌ترسند احتمالا يك جهش در فناوري است كه به موجب آن هوش مصنوعي به AGI تبديل مي‌شود؛ هوش بسيار قدرتمند و عمومي كه ديگر متكي به درخواست‌هاي خاص ازسوي انسان‌ها نيست و شروع به توسعه اهداف خود مي‌كند.
هينتون مي‌گويد: «فكر نكنيد كه پوتين روبات‌هاي فوق هوشمند با هدف كشتن اوكرايني‌ها نمي‌سازد.» اما ماجرا مي‌تواند ظريف‌تر از اين ايده‌هاي دم دستي باشد. روز دوشنبه، بازار سهام ايالات متحده سقوط كرد، زيرا عكسي ساخته شده توسط هوش مصنوعي از انفجار در پنتاگون در فضاي مجازي منتشر شد. تصوير جعلي بود، اما تاثير خود را گذاشت. هاليوودي‌اش اين مي‌شود كه هوش مصنوعي كه به سختي و مشقت توسط خود انسان ساخته شده، مي‌تواند همه را بكشد؟ تصورش را بكنيد كه يك رشته DNA به آزمايشگاهي فرستاده شود كه در صورت درخواست، پروتئين‌هاي مورد نظر را توليد مي‌كند. اين مي‌تواند هر چيزي باشد. 
شنيدن اين هشدارها و تسليم شدن در برابر يك سرنوشت‌گرايي تلخ بسيار آسان است. فناوري همين‌طور است. اين امر ناگزير است. علاوه بر اين، هوش مصنوعي به سرعت در حال يادگيري است، انسان‌هاي صرفا با ابزارهاي سياسي قديمي‌ چگونه مي‌توانند اميدوار باشند، پيروز شوند؟ 
با اين حال، سوابقي از اقدام انساني موفق و جمعي وجود دارد. دانشمندان در حال تحقيق در مورد شبيه‌سازي بودند تا اينكه قوانين اخلاقي، كار روي همانندسازي انسان را متوقف كردند. تسليحات شيميايي خطري وجودي براي بشريت ايجاد مي‌كند، اما هر چند ناقص آنها نيز كنترل مي‌شوند. شايد مناسب‌ترين نمونه، نمونه‌اي باشد كه يووال نوح هراري در مقاله‌اي در اكونوميست به آن اشاره كرده است. در سال 1945، جهان ديد كه شكافت هسته‌اي چه كاري مي‌تواند انجام دهد. اينكه هم مي‌تواند انرژي ارزان‌قيمت فراهم و هم تمدن را نابود كند. بنابراين كل نظم بين‌المللي تغيير كرد تا تسليحات هسته‌اي را تحت كنترل داشته باشيم. او مي‌نويسد كه امروز با چالش مشابهي روبه‌رو هستيم.
كارهايي وجود دارد كه دولت‌ها مي‌توانند انجام دهند. آنها مي‌توانند محدوديت‌هايي در مورد ميزان قدرت محاسباتي شركت‌هاي فناوري براي آموزش هوش مصنوعي و ميزان داده‌اي كه مي‌توانند آن را تغذيه كنند، اعمال كنند. ما مي‌توانستيم محدوده دانش هوش مصنوعي را محدود كنيم. به جاي اينكه به آن اجازه دهيم كل اينترنت را ببلعد - بدون در نظر گرفتن حقوق مالكيت كساني كه دانش بشري را در طول هزاران سال ايجاد كردند - مي‌توانيم از دسترسي به دانش بيوتكنولوژي يا هسته‌اي يا حتي اطلاعات شخصي افراد واقعي خودداري كنيم. ساده‌تر از اين، ما مي‌توانيم از شركت‌هاي هوش مصنوعي تقاضاي شفافيت كنيم. 
اگر تمام اين ترس‌ها، برخاسته از نگراني ابرثروتمندها درباره نظم جديد جهان و به خطر افتادن جايگاه‌شان نباشد، قانون و تغيير نظم مي‌تواند در مواجهه با هوش مصنوعي كارمان را راه بيندازد.

ارسال دیدگاه شما

ورود به حساب کاربری
ایجاد حساب کاربری
عنوان صفحه‌ها
کارتون
کارتون