هوش مصنوعی ۲۰۲۵؛ معجزه کارایی یا پرتگاه اخلاقی؟

p3

علی شمیرانی

 

سال ۲۰۲۵، سال تحول دیگری در رونق هوش مصنوعی بود. ChatGPT پنجمین سایت پربازدید جهان بود، شرکت‌های فناوری صدها میلیون دلار برای اصلاح مدل‌های خود هزینه کردند و چت‌بات‌ها ظاهراً در هر بخش از جامعه از کمک به کارهای حقوقی گرفته تا ارائه همراهی به بیماران و افراد تنها به‌کار گرفته شدند.

اما در سال میلادی که گذشت جا دارد تا مروری به برخی از روش‌های نوآورانه‌ای که مردم در سراسر جهان از هوش مصنوعی استفاده کردند و سپس عوارض و تبعات احتمالی آن، پرداخته شود.

 

  • هوش مصنوعی در مراقبت‌های بهداشتی

برای بسیاری از بیماران در سراسر جهان که احساس می‌کنند زمان یا توجه لازم را از سیستم‌های مراقبت‌های بهداشتی دریافت نمی‌کنند، چت‌بات‌ها به یک جایگزین قابل اعتماد تبدیل شده‌اند.

در چین، جایی که قرار ملاقات‌های روانپزشکی به سختی پیدا می‌شود و گران است و عمدتاً از جیب مردم پرداخت می‌شود، نتایج یک نظرسنجی از جوانان نشان داد که تقریباً نیمی از آنها (به ویژه در مناطق روستایی) از یک چت‌بات هوش مصنوعی برای بحث در مورد سلامت روان خود استفاده کرده‌اند.

اما  یک خبرنگار چینی وقتی مادرش شیفته‌ توصیه‌های دکتر دیپ‌سیک (هوش مصنوعی چین) شد، از پزشکان خواست تا گزارش‌های چت را بررسی کنند. آنها نیز در پاسخ گفتند که ربات هوش مصنوعی توصیه‌های نادرست و نگران‌کننده‌ای ارائه می‌دهد. اما شاید مادرش به دنبال چیزی بیش از کمک پزشکی بود؛ او گفت: «دیپ‌سیک به مراتب انسانی‌تر است و پزشکان بیشتر شبیه ماشین هستند!»

واقعیت آن است که هوش مصنوعی همچنین به مراقبت از جمعیت‌های مسن کمک می‌کند و بار کاری مراقبان را کاهش می‌دهد.

برای مثال در یک مرکز مراقبت از سالمندان در سنگاپور، دو بار در هفته، چند ده زن و مرد مسن مبتلا به زوال عقل در یک اتاق بزرگ آفتاب‌گیر با دکسی، یک ربات انسان‌نما، که جلسه ورزش صبحگاهی آنها را رهبری می‌کند، جمع می‌شوند.

در کره جنوبی، ربات‌های همراه هوش مصنوعی به سالمندانی که تنها زندگی می‌کنند داده می‌شود، که با عروسک‌ها مانند نوه‌هایشان رفتار می‌کنند.

خود کارکنان مراقبت‌های بهداشتی نیز هوش مصنوعی را پذیرفته‌اند: در یک شهر دورافتاده برزیل، ساموئل آندراده، تنها داروساز در یک کلینیک دولتی رایگان که به ۲۲هزار نفر خدمات می‌دهد، از هوش مصنوعی برای تشخیص خطاهای خطرناک استفاده می‌کند.

این دستیار هوش مصنوعی که توسط سازمان غیرانتفاعی NoHarm توسعه یافته و توسط غول‌های فناوری از جمله گوگل و آمازون پشتیبانی می‌شود، ظرفیت این دکتر داروساز را برای نسخه‌نویسی 4 برابر کرده است.

 

  • هوش مصنوعی در نظام حقوقی

در کاربردی دیگر، نظام قضایی برزیل که از جمله پرمناقشه‌ترین نظام‌های قضایی جهان است، بیش از ۱۴۰ پروژه هوش مصنوعی برای رسیدگی به بیش از ۷۰ میلیون پرونده قضایی را در حال بررسی دارد.

قضات از این فناوری برای بستن سریع‌تر از همیشه پرونده‌های خود استفاده می‌کنند. اما از سوی دیگر و در عین حال، همین ابزارهای هوش مصنوعی به وکلا اجازه می‌دهند پرونده‌های بیشتری را باز کنند! به عنوان مثال، تهیه پیش‌نویس دفاعیه قانونی که قبلاً ۲۰ دقیقه طول می‌کشید، اکنون در عرض چند ثانیه انجام می‌شود.

اما آیا یک چت‌بات هوش مصنوعی می‌تواند نحوه نگاه ما به مجرمان را تغییر دهد؟ این همان چیزی است که محققان در پاراگوئه هنگام توسعه Eva، به آن امیدوار بودند، چت‌باتی که به افراد امکان می‌دهد با زنی که به جرم قاچاق مواد مخدر در زندان است، ارتباط برقرار کنند. این ربات بر اساس مصاحبه‌های عمیق در مورد زندگی او در پشت میله‌های زندان ساخته شده است: جایی که می‌خوابید، چه می‌خورد و چگونه وقت خود را می‌گذراند.

سازندگان Eva گفتند: «ما می‌خواستیم بین مخاطبان و بخشی از جمعیت که عمدتاً نامرئی هستند و از رسانه‌های جریان اصلی حذف شده‌اند، همدلی ایجاد کنیم.»

 

  • هوش مصنوعی در کار

خلاقیت‌ها در بخش پررونق فیلم و انیمیشن اندونزی به سرعت در حال پذیرش هوش مصنوعی مولد در کار خود هستند. آنها از ChatGPT برای فیلمنامه‌نویسی، ازMidjourney  برای تولید تصاویر و از Runway برای تولید ویدیوهای کوتاه استوری‌بورد و تدوین استفاده می‌کنند. آگونگ سنتاوسا، رئیس انجمن تهیه‌کنندگان فیلم اندونزی، گفته: هوش مصنوعی هزینه‌های تولید را کاهش می‌دهد و ساخت فیلم‌هایی با کیفیت هالیوود را ممکن می‌سازد.

با این حال شرکت‌های تولیدکننده هوش مصنوعی مشهور اغلب در زبان‌های کم‌منبع عملکرد ضعیفی دارند و با رایج‌تر شدن هوش مصنوعی، خطر نابرابری عمیق‌تر را به جان می‌خرند. برای مثال در مغولستان، نمونهEgune AI  در حال توسعه مدل‌هایی است که در زبان، فرهنگ و سنت‌های عشایری این کشور تخصص دارند و برنامه‌های هوش مصنوعی را برای یک شرکت مخابراتی، یک بانک و چندین سازمان دولتی ایجاد کرده است.

در کنیا، کمبود شدید معلم به دلیل بزرگی کلاس‌ها و فرسودگی شغلی، برخی از مربیان را به استفاده از ChatGPT و سایر ربات‌های چت سوق داده است. برای سیلویا اوسو، معلم مدرسه ابتدایی در منطقه نایروبی، این ربات به برنامه‌ریزی دروس زبان انگلیسی، مطالعات اجتماعی و آموزش مذهبی مسیحی برای ۲۰۰ دانش‌آموز او کمک کرد. به این ترتیب اگر مطالب برای آنها چالش‌برانگیز باشد، او از هوش مصنوعی می‌خواهد که روش ساده‌تری برای آموزش آن پیشنهاد دهد.

از سوی دیگر به طور سنتی، کشاورزان در مالاوی به یادگیری غیررسمی و عمدتاً از طریق توصیه‌های شفاهی که نسل به نسل منتقل شده و بین کشاورزان دیگر به اشتراک گذاشته می‌شود، متکی بودند. اما اکنون آنها نیز برای مشاوره فوری کشاورزی به زبان خودشان به یک چت‌بات هوش مصنوعی روی آورده‌اند.

کینگزلی جاسی، کشاورزی که ذرت و لوبیا پرورش می‌دهد، گفت: «پس از پیروی از توصیه‌های آن، کرم‌ها کاملاً از بین رفتند. از آن زمان، من فقط به راهنمایی چت‌بات متکی بوده‌ام.»

 

  • جمع‌بندی و نتیجه‌گیری

با نگاهی سیستمی به تحولات سال ۲۰۲۵، می‌توان گفت هوش مصنوعی از فاز «نمایش تکنولوژیک» خارج و وارد فاز «کاربرد استراتژیک» شده است. با این حال، تکیه مطلق بر مدل‌هایی که هنوز خطای علمی دارند (مانند مورد چین)، یک ریسک سیستماتیک است که نباید پشت زرق و برق نوآوری پنهان بماند.

واقعیت این است که هوش مصنوعی در سال ۲۰۲۵ نه به عنوان یک منجیِ و نه به عنوان یک تهدید آخرالزمانی، بلکه دقیقاً در قامت یک «کاتالیزور تحمیلی» ظاهر شده است که تنها شکاف‌های عمیق مدیریتی و زیرساختی ما را در پوششی از تکنولوژی پنهان می‌کند.

نفوذ این ابزار در حوزه‌های حساسی چون قضاوت و سلامت، بیش از آنکه نشان‌دهنده کمالِ فنی ماشین باشد، محصولِ سقوطِ کیفیت خدمات انسانی و فرسودگی سیستم‌های سنتی است؛ آنجا که بیمار چینی از سر ناچاری به آغوش چت‌بات پناه می‌برد یا قاضی برزیلی برای دفن نشدن زیر کوه پرونده‌ها به الگوریتم متوسل می‌شود، ما با یک «اضطرار تکنولوژیک» روبرو هستیم که مرز میان کارایی و اخلاق را مخدوش کرده است.

این فناوری اگرچه با سرعت سرسام‌آوری بهره‌وری را در مزارع مالاوی و کلاس‌های درس کنیا ارتقا داده، اما همزمان ریسک بزرگِ «برون‌سپاری تفکر» و حذف مسئولیت‌پذیری انسانی را به همراه دارد که نمی‌توان به سادگی از کنار آن گذشت.

در یک نگاه سیستمی و فارغ از جنجال‌های تبلیغاتی، هوش مصنوعی را باید اهرمی دید که قدرت آن کاملاً وابسته به تکیه‌گاه انسانی‌اش است؛ و در عین حال هشداری جدی نسبت به فقدان مرجعیت اخلاقی و خطرِ تولید خطای سیستماتیک در حوزه‌های حیاتی است.

امروز ما در نقطه‌ای ایستاده‌ایم که هوش مصنوعی توانسته است کاربردها و خدمات زیادی را ارایه کند، اما همزمان پتانسیل تبدیل شدن به یک «مسکن موقت» را دارد که راه را بر اصلاحات بنیادین و انسانی ببندد.

بنابراین، برخورد هوشمندانه با این پدیده، نه در نفی رادیکال آن نهفته است و نه در پذیرش بی‌چون و چرا، بلکه در حفظ «عنصر نظارت» و «عاملیت انسانی» در گلوگاه‌هایی است که ماشین، علی‌رغم تمام توانمندی‌اش، همچنان درکی از پیچیدگی‌های روح و عدالت انسانی ندارد.