هوش مصنوعی،‌ پینوکیوی عصر دیجیتال!

 

هوش مصنوعی، ابزاری شگفت‌انگیز که همزمان قادر است با اطمینانی فریبنده، پاسخ‌های ساختگی و بی‌اساس تولید کند. این پدیده، که به «توهم» شهرت یافته است، یک خطای تصادفی نیست، بلکه ریشه در معماری بنیادین این سامانه‌ها دارد. پژوهشی که در چهارم سپتامبر ۲۰۲۵ (هفته پیش) توسط OpenAI و دانشگاه فناوری جورجیا منتشر شد، آشکار می‌سازد که این گزافه‌گویی دیجیتال، پیامد مستقیم معیارهای ارزیابی است که پاسخ‌ها را صرفاً به دو دسته درست یا نادرست تقسیم می‌کنند. مدل‌های زبانی بزرگ طوری طراحی شده‌اند که از گفتن «نمی‌دانم» پرهیز کنند، زیرا چنین پاسخی در منطق مدل‌سازی امتیازی برایشان به ارمغان نمی‌آورد. در مقابل، یک حدس جسورانه، حتی اگر نادرست باشد، ممکن است به صورت تصادفی صحیح از آب درآید و پاداش بگیرد. این منطق معیوب، پس از پردازش میلیاردها نمونه داده، سیستمی را می‌پروراند که برای ارائه پاسخ دائمی، و نه لزوماً پاسخ دقیق، بهینه‌سازی شده است.

باربارا کریستی، پژوهشگر بین‌المللی، در یادداشت اخیر خود هشدار می‌دهد که این لاف‌زنی دیجیتال موضوعی کم‌اهمیت نیست و همزمان با شگفتی روزافزون ما از قابلیت‌های هوش مصنوعی، خروجی‌های آن می‌تواند عمیقاً نگران‌کننده باشد. پیامدهای این معضل در دنیای واقعی هولناک است: تصور کنید یک هوش مصنوعی پزشکی با قاطعیت تمام دوز نادرستی از یک دارو را تجویز کند، یا یک سامانه حقوقی تفسیری اشتباه از مقررات مالی ارائه دهد و به رسوایی‌های بزرگ دامن بزند، یا دانشجویی با استناد به منابع تاریخی جعلی که هوش مصنوعی تولید کرده، اطلاعات غلط را در سطح وسیع منتشر کند. این تنها یک هراس‌افکنی فناورانه نیست؛ گزارش شرکت دیلویت نشان می‌دهد که ۷۷ درصد از کسب‌وکارها، خطاهای ناشی از توهم هوش مصنوعی را تهدیدی مستقیم برای بقای خود می‌دانند.

افزایش حجم داده‌های آموزشی تا زمانی که الگوریتم‌های نوشته‌شده به دست انسان برای «ندانستن» ارزشی قائل نشوند، این مشکل را حل نخواهد کرد. حتی سامانه‌های پیشرفته‌ای مانند GPT-4 نیز همچنان به گزافه‌گویی ادامه می‌دهند. یادگیری تقویتی شاید بتواند لحن و شیوه بیان را صیقل دهد، اما در عمل تنها دروغ‌ها را باورپذیرتر می‌کند. راه‌حل واقعی، بازنگری در قواعد بنیادین آموزش و تعامل کاربران است. سازندگان باید الگوریتم‌هایی طراحی کنند که سیستم‌ها را برای اعلام عدم قطعیت تشویق کرده، برای خطاهای همراه با اعتمادبه‌نفس کاذب جریمه کنند و گفتن «نمی‌دانم» را یک ویژگی مثبت و نشانه بلوغ سیستم تلقی کنند، نه یک شکست.

با این حال، اشتیاق کنونی کاربران به توانایی‌های هوش مصنوعی چنان فراگیر است که تا زمانی که کل این صنعت رویکرد خود را تغییر ندهد، مدل‌ها به بلوف‌زدن ادامه خواهند داد. در حال حاضر، تنها شرکت Anthropic به مدل خود، Claude، اجازه می‌دهد تا صادقانه اذعان به ندانستن کند. در مقابل، OpenAI با علم به این مشکل، همچنان مدل‌هایی تولید می‌کند که گزافه‌گویی می‌کنند. DeepMind با استفاده از روش‌های جستجو برای کاهش خطا تلاش می‌کند، اما پذیرش عدم قطعیت را در هسته طراحی خود قرار نداده است. متا مدل‌های منبع‌باز منتشر می‌کند، اما همچنان دقت ظاهری را بر صداقت الگوریتمی ترجیح می‌دهد و شرکت‌هایی مانند Mistral، Cohere و DeepSeek تمرکز خود را بر سرعت و مقیاس گذاشته‌اند، نه بر صداقت.

در این میان، نهادهای قانون‌گذار به‌آرامی وارد میدان شده‌اند. قانون هوش مصنوعی اتحادیه اروپا، شرکت‌ها را موظف می‌کند تا قابل اعتماد بودن و شفافیت سامانه‌های خود را اثبات کنند. مؤسسه ایمنی هوش مصنوعی ایالات متحده در حال تدوین معیارهایی است که به احتمال زیاد به قانون تبدیل خواهند شد و چین پیشاپیش پاسخ‌های ساختگی را غیرقانونی اعلام کرده است. اگر این صنعت به صورت داوطلبانه خود را اصلاح نکند، قوانین به‌زودی آن را وادار به تغییر خواهند کرد.

بی‌تردید، هوش مصنوعی زمانی به ابزاری حقیقتاً تحول‌آفرین بدل می‌شود که در بیان توانایی‌های خود صادق باشد. بخش‌های حیاتی و تریلیون دلاری مانند مهندسی، پزشکی، امور مالی و حقوق، به دلیل همین عدم اعتماد، از پذیرش گسترده آن امتناع می‌ورزند. نخستین شرکتی که «نمی‌دانم» را به پاسخی استاندارد و قابل اعتماد تبدیل کند، می‌تواند راه را برای پذیرش جهانی این فناوری هموار سازد. هیئت‌مدیره‌ها، مدیران عامل و سرمایه‌گذاران باید از فروشندگان هوش مصنوعی بپرسند: مدل شما با عدم قطعیت چگونه برخورد می‌کند؟ آیا الگوریتم‌هایتان صداقت را پاداش می‌دهند یا تنها روان سازی جواب را؟ این یک مسئله فنی صرف نیست، بلکه یک اولویت حکمرانی استراتژیک است. توهمات هوش مصنوعی می‌توانند خطرات عملیاتی، چالش‌های قانونی و آسیب‌های جبران‌ناپذیر به اعتبار سازمان‌ها وارد کنند. شرکت‌هایی که پیشگامانه به سراغ سیستم‌های مبتنی بر اعتماد و شفافیت بروند، در رعایت قوانین، جلب اعتماد مشتریان و در نهایت، کسب موفقیت پایدار در بازار، مزیتی انکارناپذیر خواهند داشت. باید به هوش مصنوعی بیاموزیم که دروغ نگوید و آنگاه یک گام به تحقق پتانسیل واقعی آن نزدیک‌تر شده‌ایم.

علی میرزایی سیسان

 

وب‌سایت  |  اینستاگرام  |  واتس‌اَپ  |  تلگرام  |  آپارات  |  یوتیوب  |  احمد فرهادی

۰
از ۵
۰ مشارکت کننده