اخلاق هوش مصنوعی؛ جایی که اخلاق، سیاست و تکنولوژی به هم گره می‌خورند!

 

بنا دارم برای خوانندگان محترم «مشق نو» کتاب خوش‌خوان «اخلاق هوش مصنوعی» (AI Ethics) نوشته مارک کوکلبرگ را معرفی کنم. این کتاب به آیندهٔ هوش مصنوعی و چالش‌های اخلاقی ـ سیاسی آن می‌پردازد. شیوهٔ نوشتار کتاب (دست‌کم در زبان انگلیسی) برای عموم سلیس و راحت فهم است و گمان می‌کنم علاقه‌مندان به حوزه‌های بین‌رشته‌ای بهرهٔ بسیاری از آن ببرند.

آنچه کتاب را متمایز و مبرز می‌کند، بررسی چالش‌های ویژهٔ رویارویی با هوش مصنوعی است: از بی‌عدالتیِ الگوریتمی گرفته تا خطرات ناشی از نشر اخبار کذب و مسئلهٔ پیچیدهٔ (عدم) مسئولیت اخلاقی ـ قانونیِ ماشین‌های خودکار. کوکلبرگ به نیکویی میان منافع استفاده از هوش مصنوعی برای جوامع و مضرات آن تعادل برقرار می‌کند. استدلال او این است که بسیاری از نگرانی‌های مرتبط با هوش مصنوعی در واقع امتداد دغدغه‌های قدیمی‌تر در باب قدرت، نظارت، و کنترل اجتماعی هستند. اما هشدار می‌دهد که عدم شفافیت و قابلیت مسئولیت‌گریزی موجود در سیستم‌های هوش مصنوعی تهدیدی جدی برای کرامت انسانی به شمار می‌آید. کوکلبرگ در پایان کتاب به نکته‌ای نغز اشاره می‌کند: چالش‌های اخلاقی هوش مصنوعی، در مقایسه با بحران‌های جهانی؛ مانند تغییرات اقلیمی، فقر و نابرابری، شاید اهمیت کمتری داشته باشند، اما به آن‌ها گره خورده است. او معتقد است که تمرکز اصلی باید بر روی مسائل کلان مانند عدالت اجتماعی باشد، چراکه این مشکلات می‌توانند با ظهور و گسترش هوش مصنوعی تشدید (در مواردی کاهش) یابند.

طرح این مباحث، علاوه بر اهمیت اخلاقی، از حیث سیاسی نیز واجب است و عدم توجه به آن در طولانی‌مدت خطرات جدی به دنبال دارد. بالاخص در جوامعی که تکنولوژی­‌های نوظهور مثل هوش مصنوعی به‌جای افزایش شفافیت، به ابزاری برای کنترل و… بدل می‌شوند. به‌عنوان‌مثال، در ایران، استفاده از هوش مصنوعی در حوزه‌هایی چون نظارت بر شبکه‌های اجتماعی، تشخیص چهره در اماکن عمومی و تحلیل داده‌های کاربران، می‌تواند این نگرانی را ایجاد کند که این تکنولوژی در غیاب یک چارچوب اخلاقی ـ حقوقی شفاف، شیوه‌های اقتدارگرایانه را تجهیز و تقویت می‌کند. بصیرت­‌های برآمده از فلسفهٔ سیاست را می‌توان در اینجا برای روشنگری به خدمت گرفت. هوش مصنوعی با قدرت و ظرفیت بالایی که دارد، می‌تواند الگوهای ناعدالتی را بازتولید کند. الگوریتم‌های آن به‌گونه‌ای طراحی می‌شوند که از داده‌های تاریخی برای تصمیم‌گیری استفاده کنند. اما اگر این داده‌ها در بستری از تبعیض، نابرابری، و سانسور شکل گرفته باشند، نتیجهٔ اعمال و استفاده از هوش مصنوعی نیز چیزی جز تداوم این وضعیت نخواهد بود. این الگوریتم‌ها می‌توانند ناآگاهانه به حذف صداهای منتقد و تقویت روایت‌های رسمی کمک کنند. روشن است که این موضوع چقدر می‌تواند برای سیاست ایران مهم باشد؛ جایی که نهادهای حکومتی از ابزارهای مبتنی بر هوش مصنوعی برای کنترل شهروندان و فضای عمومی استفاده می‌کنند. در چنین فضایی، نه‌تنها امید به نقش رهایی‌بخش تکنولوژی کاهش می‌یابد، بلکه ابزارهای دیجیتال به بازوی اجرایی یک نظام سیاسی بدل می‌شوند.

در نظام‌های سیاسی اقتدارگرا که ساختارهای نظارتی و سیاست‌گذاری چندان شفاف نیستند، این پرسش پیش روی اندیشمندان و روشنفکران است که تأثیرات اجتماعی هوش مصنوعی چه خواهد بود و چه هدیه یا بلیه‌­ای پیش‌روی می‌گذارد؟ آیا این تکنولوژی می‌تواند به بهبود شرایط اجتماعی، کاهش فساد، و ارتقای عدالت کمک کند، یا در غیاب نهادهای دموکراتیک، به ابزاری برای تثبیت قدرت بدل خواهد شد؟ درحالی‌که برخی متفکران سیاسی بر این باور بودند که علم و قدرت پیوندی ناگسستنی دارند، می‌توان گفت که هوش مصنوعی امروز در همان نقطه‌ای قرار گرفته که علم و تکنولوژی در عصر روشنگری قرار داشت: یعنی هم می‌تواند عاملی برای پیشرفت و رهایی باشد، و هم به عاملی برای سلطه و کنترل تبدیل شود.

این کتاب سال گذشته در ایران با ترجمه احسان عارفی‌فر و توسط نشر ققنوس به چاپ رسیده است. من متأسفانه به متن فارسی ترجمه شده این کتاب دسترسی نداشتم و نمی‌توانم درباره ترجمه کتاب سخنی بگویم. اما مطالعهٔ کتاب کوکلبرگ را به خوانندگان ایرانی توصیه می‌کنم. این کتاب برای درک چالش‌های اخلاقی هوش مصنوعی سودمند است و به فهم بهتر پیوند میان تکنولوژی و سیاست کمک می‌کند. ما نیازمندیم تا دربارهٔ آیندهٔ هوش مصنوعی نه‌تنها از منظر علمی، بلکه از زاویهٔ اخلاقی، اجتماعی و سیاسی نیز بیندیشیم.

یادداشتی از دکتر حسین دباغ

 

وب‌سایت  |  اینستاگرام  |  واتس‌اَپ  |  تلگرام  |  آپارات  |  یوتیوب  |  احمد فرهادی

۵
از ۵
۱ مشارکت کننده