آغازینه: چرا اخلاق هوش مصنوعی یک جنگ نرم برای کنترل اطلاعات است؟
درباره حذف هوش مصنوعی صادقانه فکر کنید. چرا شرکتهای فناوری و دولتها اینقدر کمکم راجع به اخلاق هوش مصنوعی حرف میزنند؟ درک این موضوع، اولویتی استراتژیک برای هوشمندان در عصر دیجیتال است. بسیاری از سازمانها سعی میکنند از طریق سیاهپوش کردن دادهها و الگوریتمهای سری، ارزشهای اخلاقی را به عنوان مانعی در مسیر بیقیدوشرایط استفاده از تکنولوژی نادیده بگیرند. آمار جهانی نشان میدهد که بیش از ۷۰٪ الگوریتمهای هوش مصنوعی استفادهکنندگان آسیبپذیر را تحت نظارت قرار میدهند.
راز اول: چطور دادههای جهتدار کار خود را میکنند؟
دادههای جهتدادهشده چگونه ظهور میکنند؟
هوش مصنوعی به طور کامل از دادهها زنده میماند. اما آیا فکر کردهاید چیزی مثل بازشناسی چهره چطور به تبعیض جنسیتی منجر میشود؟ این را سازمان ملل سال ۲۰۲۲ گزارش کرده است. در واقع، بسیاری از اخلاق هوش مصنوعی نقض میشوند زیرا منابع داده بارها بدون بررسی عواقب اجتماعی جمعآوریشدهاند.
راهحل چیست؟
– ایجاد هیئت نظارتی مستقل برای بررسی منابع داده
– آموزش تخصصی به تیمهای تکنولوژی در مورد تعصبهای زیربنایی
– انتشار شفاف دادههای آموزشی استفادهشده در سیستمهای هوش مصنوعی
راز دوم: الگوریتمهای سرّی که دنیا را کنترل میکنند
چون شما نمیدانید، سوءاستفاده صورت میگیرد
چرا فیسبوک به سختی الگوریتمهای نمایش تبلیغات اختصاصی در شبکه اجتماعی خود را فاش نمیکند؟ چون در الگوریتمهای هوش مصنوعی، برنامههایی وجود دارد که صریحاً حقوق انسانی را نقض میکنند. گزارش یک کارشناس جهانی سال ۲۰۲۳ نشان داد از هر ۵۰ سیستم تصمیمگیری خودکار، ۴۲ مورد دیدگاه اخلاقی نداشتهاند.
چگونه الگوریتمهای سایهای عمل میکنند؟
این سیستمها از هوش مصنوعی برای فیلتر قبولی دانشگاهی یا واگذاری وام استفاده میکنند. آنها مبتنی بر معیارهای اخلاق هوش مصنوعی نیستند و صرفنده، خطر سوءاستفاده چندانی نمیبینند. سازوکار مشابه در سیستمهای حقوقی هم دیده شده، جایی که هوش مصنوعی پروندههای متهمان را نمیدهد، بلکه درصد «خوب» یا «بد» بودن آنها را محاسبه میکند.
راز سوم: فراموشی از مسئولیت اخلاقی در اتخاذ تصمیم
بسیاری دست به اختراعات پرسرعت هوش مصنوعی میزنند ولی چون هیأتهای اخلاقی عمیق را در پروژه خود نمیگنجانند، تصمیمها بیشکل میشوند. یک مثال شاکننده: در سال جاری، یک ربات تشخیص معیوبیت یکنفر را در ضربهمرزی به عدم تخته بهخوبی افزایش داده است. این به مسئله معرفی تصادفی میپردازد—پروژههای غیراخلاقی هوش مصنوعی که بدون زیرساخت قوی میپوشند.
راز چهارم: چقدر تبلیغات هوش مصنوعی را گول خوردهایم؟
همه دوست دارند نیک آن را جلوه کنند
کمپینهای بزرگی با خرید تبلیغات هوش مصنوعی، قصد دارند افکار عمومی را نسبت به اخلاق آن مهربان کنند. اما در واقع اغلب شرکتها، از اخلاق هوش مصنوعی فقط در بیانیههای روابط عمومی استفاده میکنند. دادهها مشخص میکنند که کمتر از ۴۰٪ این شرکتها سیاست واقعی اخلاقی در مورد هوش مصنوعی دارند.
معقول است، اما چه اتفاقی میافتد؟
دسیسات دادهکاوی و تحلیل رفتار انسانی بدون آگاهی فرد، شایعاتی شدهاست که عمیقتر از مباحثات عموچونارو هستند. راهحل؟ بحث عمومی در ستادهای دانشکدهها و وبینارهای اخلاق و هوش مصنوعی.
راز پنجم: چرا جمعیت از اخلاق هوش مصنوعی سکوت میکنند؟
بیشترین آسیبها از هوش مصنوعی در بین اقتصادهای خرد و جوامع محروم جهان رخ داده است. چند کشور در آفریقا ادعای بسیاری کردهاند که سیستمهای تشخیص جرمی این فناوری، باعث نابرابریهای اجتماعی شدهاند. اما بحث در این زمینه محدود است، چون برخی مدعیان آموزش اخلاقی، محتواهای نقدی را سانسور کردند.
درباره همه اینها چه باید کرد؟
یک دعوت از خودتان
مطالعات برخی کارشناسان جهانی نشان میدهد شما میتوانید اخلاق هوش مصنوعی را از طریق چهارراههایی مثل обучения، الحاق در سازمانهای نظارتی، مشارکت در ظفرانهای استانداردسازی، و تولید نرمافزارهای رایگان تحت معاهدهای اخلاقی، رهبری کنید. کاربران امروز، ناظران فردا هستند.
بسیاری نشناختهاند که فقط با فرهنگسازی صحیح و تعامل با سیاستگذاری، اخلاق هوش مصنوعی میتواند به یک اقدام ملموس در جهان تبدیل شود. سوال اینجاست: آیا شما هم میخواهید بخشی از این حرکت باشید؟