بنا دارم برای خوانندگان محترم «مشق نو» کتاب خوشخوان «اخلاق هوش مصنوعی» (AI Ethics) نوشته مارک کوکلبرگ را معرفی کنم. این کتاب به آیندهٔ هوش مصنوعی و چالشهای اخلاقی ـ سیاسی آن میپردازد. شیوهٔ نوشتار کتاب (دستکم در زبان انگلیسی) برای عموم سلیس و راحت فهم است و گمان میکنم علاقهمندان به حوزههای بینرشتهای بهرهٔ بسیاری از آن ببرند.
آنچه کتاب را متمایز و مبرز میکند، بررسی چالشهای ویژهٔ رویارویی با هوش مصنوعی است: از بیعدالتیِ الگوریتمی گرفته تا خطرات ناشی از نشر اخبار کذب و مسئلهٔ پیچیدهٔ (عدم) مسئولیت اخلاقی ـ قانونیِ ماشینهای خودکار. کوکلبرگ به نیکویی میان منافع استفاده از هوش مصنوعی برای جوامع و مضرات آن تعادل برقرار میکند. استدلال او این است که بسیاری از نگرانیهای مرتبط با هوش مصنوعی در واقع امتداد دغدغههای قدیمیتر در باب قدرت، نظارت، و کنترل اجتماعی هستند. اما هشدار میدهد که عدم شفافیت و قابلیت مسئولیتگریزی موجود در سیستمهای هوش مصنوعی تهدیدی جدی برای کرامت انسانی به شمار میآید. کوکلبرگ در پایان کتاب به نکتهای نغز اشاره میکند: چالشهای اخلاقی هوش مصنوعی، در مقایسه با بحرانهای جهانی؛ مانند تغییرات اقلیمی، فقر و نابرابری، شاید اهمیت کمتری داشته باشند، اما به آنها گره خورده است. او معتقد است که تمرکز اصلی باید بر روی مسائل کلان مانند عدالت اجتماعی باشد، چراکه این مشکلات میتوانند با ظهور و گسترش هوش مصنوعی تشدید (در مواردی کاهش) یابند.
طرح این مباحث، علاوه بر اهمیت اخلاقی، از حیث سیاسی نیز واجب است و عدم توجه به آن در طولانیمدت خطرات جدی به دنبال دارد. بالاخص در جوامعی که تکنولوژیهای نوظهور مثل هوش مصنوعی بهجای افزایش شفافیت، به ابزاری برای کنترل و… بدل میشوند. بهعنوانمثال، در ایران، استفاده از هوش مصنوعی در حوزههایی چون نظارت بر شبکههای اجتماعی، تشخیص چهره در اماکن عمومی و تحلیل دادههای کاربران، میتواند این نگرانی را ایجاد کند که این تکنولوژی در غیاب یک چارچوب اخلاقی ـ حقوقی شفاف، شیوههای اقتدارگرایانه را تجهیز و تقویت میکند. بصیرتهای برآمده از فلسفهٔ سیاست را میتوان در اینجا برای روشنگری به خدمت گرفت. هوش مصنوعی با قدرت و ظرفیت بالایی که دارد، میتواند الگوهای ناعدالتی را بازتولید کند. الگوریتمهای آن بهگونهای طراحی میشوند که از دادههای تاریخی برای تصمیمگیری استفاده کنند. اما اگر این دادهها در بستری از تبعیض، نابرابری، و سانسور شکل گرفته باشند، نتیجهٔ اعمال و استفاده از هوش مصنوعی نیز چیزی جز تداوم این وضعیت نخواهد بود. این الگوریتمها میتوانند ناآگاهانه به حذف صداهای منتقد و تقویت روایتهای رسمی کمک کنند. روشن است که این موضوع چقدر میتواند برای سیاست ایران مهم باشد؛ جایی که نهادهای حکومتی از ابزارهای مبتنی بر هوش مصنوعی برای کنترل شهروندان و فضای عمومی استفاده میکنند. در چنین فضایی، نهتنها امید به نقش رهاییبخش تکنولوژی کاهش مییابد، بلکه ابزارهای دیجیتال به بازوی اجرایی یک نظام سیاسی بدل میشوند.
در نظامهای سیاسی اقتدارگرا که ساختارهای نظارتی و سیاستگذاری چندان شفاف نیستند، این پرسش پیش روی اندیشمندان و روشنفکران است که تأثیرات اجتماعی هوش مصنوعی چه خواهد بود و چه هدیه یا بلیهای پیشروی میگذارد؟ آیا این تکنولوژی میتواند به بهبود شرایط اجتماعی، کاهش فساد، و ارتقای عدالت کمک کند، یا در غیاب نهادهای دموکراتیک، به ابزاری برای تثبیت قدرت بدل خواهد شد؟ درحالیکه برخی متفکران سیاسی بر این باور بودند که علم و قدرت پیوندی ناگسستنی دارند، میتوان گفت که هوش مصنوعی امروز در همان نقطهای قرار گرفته که علم و تکنولوژی در عصر روشنگری قرار داشت: یعنی هم میتواند عاملی برای پیشرفت و رهایی باشد، و هم به عاملی برای سلطه و کنترل تبدیل شود.
این کتاب سال گذشته در ایران با ترجمه احسان عارفیفر و توسط نشر ققنوس به چاپ رسیده است. من متأسفانه به متن فارسی ترجمه شده این کتاب دسترسی نداشتم و نمیتوانم درباره ترجمه کتاب سخنی بگویم. اما مطالعهٔ کتاب کوکلبرگ را به خوانندگان ایرانی توصیه میکنم. این کتاب برای درک چالشهای اخلاقی هوش مصنوعی سودمند است و به فهم بهتر پیوند میان تکنولوژی و سیاست کمک میکند. ما نیازمندیم تا دربارهٔ آیندهٔ هوش مصنوعی نهتنها از منظر علمی، بلکه از زاویهٔ اخلاقی، اجتماعی و سیاسی نیز بیندیشیم.
یادداشتی از دکتر حسین دباغ
وبسایت | اینستاگرام | واتساَپ | تلگرام | آپارات | یوتیوب | احمد فرهادی