هركول پوآرو عصر ديجيتال
كامران مشفقآراني
پيشرفت تكنولوژي تاثيرات متنوعي روي ميزان جرم و جنايات در جوامع مختلف دارد. اين تاثيرات به عوامل مختلفي مانند نوع تكنولوژي، رفتار افراد، نظام قانوني و فرهنگ جامعه وابسته هستند. بر كسي پوشيده نيست كه انواع جديدي از جرم و جنايات به واسطه اين پيشرفتها به وجود آمدهاند كه مرتبط با استفاده از تكنولوژي هستند. مثالهايي از اين دست هم كم نيستند؛ جرايم سايبري، حملههاي هكرها، طيفهاي گوناگون كلاهبرداريهاي آنلاين، تقلب الكترونيكي و تجسس ديجيتال. اگرچه تكنولوژي ميتواند به عنوان يك ابزار مفيد در جهت افزايش امنيت در جامعه به كار گرفته شود، نظامهاي نظارتي، دوربينهاي مداربسته، سيستمهاي امنيتي آنلاين و سيستمهاي تشخيص تخلف به بهبود امنيت عمومي ميتوانند كمك كنند به شرطي كه تنها به منظور جلوگيري از وقوع جرم و جنايات يا پيشگيري پيشامدهاي ناگوار از آنها استفاده شود. چه بسا ميدانيم فناوري ميتواند به افزايش حقوق شهروندي افراد در جوامع كمك كند، مازاد بر اينكه اين ارتباطات نوين ديجيتال و شبكههاي اجتماعي گوناگون با ضريب نفوذ بينظيرشان در اقشار مختلف ميتوانند به افزايش آگاهي از حقوق انساني و تشويق به مطالبه حقوق مدني و سياسي منجر شوند. معضل بزرگي كه اين روزها جوامع غربي خصوصا اروپاييها با آن دست به گريبان هستند، جمعآوري اطلاعات شخصي توسط شركتها و ساير دولتهاي رقيب است، چراكه اين مهم از ديدگاه انديشمندان نقض حريم خصوصي شهروندان تلقي شده و مسائل حقوقي جديدي را در سطح كلان اجتماعي براي آنان به همراه داشته است. با بالا رفتن سرعت پردازش و در آينده نه چندان دور و فراگيري رايانش كوانتومي، اگرچه با قدرت تحليل بالا و سرعت خيرهكننده اين فناوري ميتوان از پنهان كردن معاملات مالي مجرمانه پيشگيري كرد يا فرآيندهاي پولشويي و انتقال پول به صورت غيرقانوني تا حد بسيار مطلوبي را مسدود كرد، اما به همين ميزان و چه بسا توانمندتر ميتواند به مجرمان حرفهاي نيز در همين راستا ياريرسان باشد. مهم است كه بدانيم تسلط بر هوش مصنوعي نيازمند درك عميق از اين فناوري و اخلاق مربوط به نحوه استفاده از آن است، شايد بهتر باشد بگوييم مهم است چه كسي و در راستاي چه هدف و اهدافي از آن استفاده ميكند. اگر يك مثال بخواهيم ذكر كنيم، ميتوانيم به استفاده از هوش مصنوعي در سيستم قضايي و عدالت كيفري همينطور پيشبيني و پيشگيري جرمها اشاره كنيم، اين ميتواند به چالشهاي اخلاقياي منجر شود كه تنها برخي از آنها را اينجا ذكر ميكنيم: اول اينكه دستكم تا امروز هوش مصنوعي فقط به اندازه دادههايي كه بر اساس آنها آموزش ديده، قادر است تا حد قابل قبولي خوب عمل كند كه به دليل عدم وجود درك اين پديده از ادراكات و عواطف انساني اگر دادههايي كه بر محور آنها يادگيري صورت پذيرفته بر مبناي يك تعصب يا يك ديدگاه خاص تندرو يا حتي مخلوطي از انگاشتهاي اخلاقي و غيراخلاقي باشند، هوش مصنوعي ممكن است تعصبات راديكاليزه را در سطوح مختلف اجتماعي و حتي سيستمهاي حكومتي تقويت كند. دوما ممكن است براي انسانها با ديدگاهها و سطوح آگاهي متنوع دشوار باشد كه درك كنند چگونه يك الگوريتم يادگيري ماشين به تصميم خاص و نتيجهگيرياي رسيده است كه آنها قادر به درك آن نيستند و اين منجر به عدم شفافيت در اذهان عمومي شده و در نتيجه عدم اعتماد اجتماعي به سياستهاي قضايي دولتها دامن بزند. در نهايت و مهمترين مشكل استفاده از تكنولوژيهاي نظارتي مبتني بر هوش مصنوعي است. به فرض يك امر ساده و پيش پا افتاده مانند شناسايي چهره، سوالاتي در مورد حقوق حريم شخصي و احتمال سوءاستفاده توسط سايرين را تقويت ميكند. با توجه به اين چالشها، بسيار حياتي خواهد بود كه اين نگرانيها براي افراد برطرف شوند و اطمينان حاصل كنيم كه هوش مصنوعي بهطور اخلاقي در جهت ترويج عدالت و بهبود امنيت زيستي شهروندان پيشرفت ميكند.
با بالا رفتن سرعت پردازش و در آينده نه چندان دور و فراگيري رايانش كوانتومي، اگرچه با قدرت تحليل بالا و سرعت خيرهكننده اين فناوري ميتوان از پنهان كردن معاملات مالي مجرمانه پيشگيري كرد يا فرآيندهاي پولشويي و انتقال پول به صورت غيرقانوني تا حد بسيار مطلوبي را مسدود كرد، اما به همين ميزان و چه بسا توانمندتر ميتواند به مجرمان حرفهاي نيز در همين راستا ياريرسان باشد.