ورود متا به عصر ژوراسيك
كامران مشفقآرانی
اخيرا محققان فیسبوک يا بهتر بگوييم ابرشركت فناوری «متا» مدل جدیدی ازهوش مصنوعی را توسعه داده و رونمایی كرده که میتواند زبانهای گوناگون را با دقت بیسابقهای ترجمه کند. این كانسپت جديد که «ژوراسیک-1 جامبو» نام دارد، روی مجموعه داده عظیمی از متن و کد آموزش داده شده است. او میتواند انواع زبانها را با دقت 97درصد ترجمه کند، اگرچه نسخه نخستين ژوراسیك جامبو هنوز در حال توسعه است و به اصطلاح فعالان حوزه انفورماتيك اين تنها عرضه نسخه بتا از آن است، اما همين نسخه آزمايشی نيز كتابها، مقالات و حتی مصاحبههای تخصصی را با دقتی مثالزدنی و در سطح يك مترجم متخصص ترجمه میكند. البته توسعه مدلهای هوش مصنوعی که قادر به ترجمه زبانها هستند، تعدادی سوال فلسفی در مورد ماهیت زبان، ارتباطات و هوش ایجاد میکنند كه در اینجا با طرح برخی مسائل کلیدی و ماهيتی مرتبط با آن سعی داريم، اشاره كنيم تا موضوع كمی شفاف شود. ابتدای امر ماهیت زبان است كه بايد به آن نگاه كنيم، مدلهای ترجمه هوش مصنوعی به روشهای آماری برای تحلیل و ترسیم روابط بین کلمات و عبارات در زبانهای مختلف متکی هستند. این رویکرد سوالاتی را در مورد اینکه تا چه حد مدلهای مبتنی بر هوش مصنوعی میتوانند معنای زبان را درک کنند، ایجاد میکند که فراتر از تناظر کلمه به کلمه صرف است. آیا مدلهای هوش مصنوعی میتوانند تفاوتهای ظریف معنا، زمینه و ارجاعات فرهنگی را که برای ارتباط موثر ضروری هستند، درک کنند؟ پاسخ به اين سوال يقينا در آينده و با روشهای سعی و خطا بيشتر روشن خواهد شد، مورد دوم كه بايد درنظر بگيريم نقش زمینه و فرهنگ در رسالت مترجم است، يادمان باشد كه زبان صرفا نظامی از نمادها نیست و اين مهم عمیقا در فرهنگ و زمینه بشری جا افتاده است. مدلهای هوش مصنوعی آموزشدیده روی مجموعه دادههای عظیم متن ممکن است در به تصویر کشیدن ظرافتهای هنجارهای فرهنگی، اصطلاحات و الفاظ عامیانه که تاثیر قابلتوجهی بر معنا دارند، دچار مشکل شوند. چگونه مدلهای هوش مصنوعی میتوانند درک زمینهای و آگاهی فرهنگی را در فرآیندهای ترجمه خود بهتر بگنجانند؟ حال میرسيم به مورد سوم كه اخلاق ترجمه با استفاده از هوش مصنوعی است، ترجمه هوش مصنوعی این پتانسیل را دارد که موانع زبانی را از بین ببرد و ارتباطات جهانی را تسهیل کند، اما مانند خيلی از جنبههای ديگر اين فناوری نگرانیهای اخلاقی را نیز ایجاد میکند. آیا مدلهای هوش مصنوعی میتوانند ناخواسته اطلاعات نادرست یا سوءگیری را بین زبانها منتشر کنند؟ چگونه میتوانیم اطمینان حاصل کنیم که ترجمه هوش مصنوعی به طور مسوولانه و اخلاقی استفاده میشود؟ پاسخ دادن به اين پرسشها نه تنها دانشمندان را درگير خود كرده كه فلاسفه و حقوقدانان هم خواسته يا ناخواسته درحال دست و پنجه نرم كردن با ابعاد گسترده اين حوزه و ساير حوزههای مرتبط با آن هستند. اما خب برگرديم به شركت فيسبوک و متا؛ توسعه فناوری ترجمه هوش مصنوعی در اين شرکت با انگیزههای مختلفی انجام میشود كه در اينجا سه مورد از مهمترين آنها را خلاصه ذكر میكنيم: اول اينكه ارتباطات جهانی برای اين شركت كه غول شبكههای اجتماعی و به نوعی پدرخوانده اين صنعت شناخته میشود بسيار مهم است، لذا توسعه توانایی ترجمه یکپارچه زبانها میتواند موانع برای توسعه اين شبكهها را از بین ببرد و درک و همکاری جهانی را ارتقا دهد. این امر میتواند به ویژه در زمینه تجارت بینالمللی، آموزش و تلاشهای بشردوستانه نيز مفید واقع شود. دوم ارتقاي سطح اينكه دسترسپذیری افراد گوناگون به منابع، ترجمه محتوا توسط هوش مصنوعی میتواند اطلاعات و خدمات را برای افرادی که به زبانهای مختلف صحبت میکنند دسترسی بيشتری ايجاد كند كه این میتواند به کاهش انزوای اجتماعی و ارتقای برابری در دسترسی به دانش و منابع کمک کند و در آخر و سومين مورد نيز كه اهميت زيادی عموما برای اين دسته شركتها نظير گوگل، آمازون و متا دارد، دسترسی به بيگ ديتای تجربه کاربر است. ترجمه هوش مصنوعی میتواند تجربه کاربر از پلتفرمها و برنامههای کاربردی آنلاین را با امکان برقراری ارتباط موثر با محتوا به زبانهای مختلف افزایش دهد. این میتواند به یک محیط آنلاین فراگیرتر و دلپذیرتر منجر شود و اين يعنی استفاده بيشتر و دريافت ورودی بيشتر برای توسعه بيشتر و بهتر در راستای اهداف اين ابرشركتها. با این حال، متا نیز مانند ديگر رقبايش در توسعه و استقرار فناوری ترجمه هوش مصنوعی به طور مسوولانه با چالشهایی روبهرو است، توجه داشته باشيد كه دقت و قابلیت اطمینان از صحت ترجمههای هوش مصنوعی برای جلوگیری از انتشار اطلاعات نادرست و سوءتفاهم بسیار مهم است، این امر مستلزم تحقیق و توسعه مداوم برای بهبود کیفیت مدلهای ترجمه است. در كنار اين در جوامع مختلف حساسیتهای فرهنگی گستردهای وجود دارد، مدلهای هوش مصنوعی باید روی مجموعه دادههایی که تنوع زبانها و فرهنگهای انسانی را منعکس میکنند، آموزش داده شوند، این میتواند به کاهش خطر سوءگیریهای فرهنگی کمک و اطمینان حاصل کند که ترجمهها به زمینههای فرهنگی مختلف احترام میگذارند. در پايان مهمترين چالش چيزی نيست جز شفافیت و توضیحپذیری، کاربران باید بتوانند درک کنند که مدلهای ترجمه هوش مصنوعی چگونه تصمیم میگیرند و چرا برخی ترجمهها نسبت به ترجمههای دیگر انتخاب میشوند. ايجاد اعتماد بين كاربر و روبات هوش مصنوعی و در كنار توسعه استفاده مسوولانه از فناوری ترجمه به كمك ماشين را منجر میشود. از آنجایی که فناوری ترجمه هوش مصنوعی به تکامل خود ادامه میدهد، پرداختن به این نگرانیهای فلسفی و اخلاقی ضروری است تا اطمینان حاصل شود که از آن برای امور مثبت استفاده خواهد شد نه برای توليد انواع آسيبهای جديد كه هيچ تجربهای تاكنون از مواجهه با آنان نداريم.