با ما همراه باشید

هوش مصنوعی

تقلب‌های فراموش‌شده در اخلاق هوش مصنوعی که مسئولان را می‌ترساند

منتشر شده

در

آغازینه: چرا اخلاق هوش مصنوعی یک جنگ نرم برای کنترل اطلاعات است؟

درباره حذف هوش مصنوعی صادقانه فکر کنید. چرا شرکت‌های فناوری و دولت‌ها اینقدر کم‌کم راجع به اخلاق هوش مصنوعی حرف می‌زنند؟ درک این موضوع، اولویتی استراتژیک برای هوشمندان در عصر دیجیتال است. بسیاری از سازمان‌ها سعی می‌کنند از طریق سیاه‌پوش کردن داده‌ها و الگوریتم‌های سری، ارزش‌های اخلاقی را به عنوان مانعی در مسیر بی‌قیدوشرایط استفاده از تکنولوژی نادیده بگیرند. آمار جهانی نشان می‌دهد که بیش از ۷۰٪ الگوریتم‌های هوش مصنوعی استفاده‌کنندگان آسیب‌پذیر را تحت نظارت قرار می‌دهند.

راز اول: چطور داده‌های جهت‌دار کار خود را می‌کنند؟

داده‌های جهت‌داده‌شده چگونه ظهور می‌کنند؟

هوش مصنوعی به طور کامل از داده‌ها زنده می‌ماند. اما آیا فکر کرده‌اید چیزی مثل بازشناسی چهره چطور به تبعیض جنسیتی منجر می‌شود؟ این را سازمان ملل سال ۲۰۲۲ گزارش کرده است. در واقع، بسیاری از اخلاق هوش مصنوعی نقض می‌شوند زیرا منابع داده بارها بدون بررسی عواقب اجتماعی جمع‌آوری‌شده‌اند.

راه‌حل چیست؟

– ایجاد هیئت نظارتی مستقل برای بررسی منابع داده
– آموزش تخصصی به تیم‌های تکنولوژی در مورد تعصب‌های زیربنایی
– انتشار شفاف داده‌های آموزشی استفاده‌شده در سیستم‌های هوش مصنوعی

راز دوم: الگوریتم‌های سرّی که دنیا را کنترل می‌کنند

چون شما نمی‌دانید، سوءاستفاده صورت می‌گیرد

چرا فیس‌بوک به سختی الگوریتم‌های نمایش تبلیغات اختصاصی در شبکه اجتماعی خود را فاش نمی‌کند؟ چون در الگوریتم‌های هوش مصنوعی، برنامه‌هایی وجود دارد که صریحاً حقوق انسانی را نقض می‌کنند. گزارش یک کارشناس جهانی سال ۲۰۲۳ نشان داد از هر ۵۰ سیستم تصمیم‌گیری خودکار، ۴۲ مورد دیدگاه اخلاقی نداشته‌اند.

چگونه الگوریتم‌های سایه‌ای عمل می‌کنند؟

این سیستم‌ها از هوش مصنوعی برای فیلتر قبولی دانشگاهی یا واگذاری وام استفاده می‌کنند. آنها مبتنی بر معیارهای اخلاق هوش مصنوعی نیستند و صرفنده، خطر سوءاستفاده چندانی نمی‌بینند. سازوکار مشابه در سیستم‌های حقوقی هم دیده شده، جایی که هوش مصنوعی پرونده‌های متهمان را نمی‌دهد، بلکه درصد «خوب» یا «بد» بودن آنها را محاسبه می‌کند.

راز سوم: فراموشی از مسئولیت اخلاقی در اتخاذ تصمیم

بسیاری دست به اختراعات پرسرعت هوش مصنوعی می‌زنند ولی چون هیأت‌های اخلاقی عمیق را در پروژه خود نمی‌گنجانند، تصمیم‌ها بی‌شکل می‌شوند. یک مثال شاکننده: در سال جاری، یک ربات تشخیص معیوبیت یک‌نفر را در ضربه‌مرزی به عدم تخته به‌خوبی افزایش داده است. این به مسئله معرفی تصادفی می‌پردازد—پروژه‌های غیراخلاقی هوش مصنوعی که بدون زیرساخت قوی می‌پوشند.

راز چهارم: چقدر تبلیغات هوش مصنوعی را گول خورده‌ایم؟

همه دوست دارند نیک آن را جلوه کنند

کمپین‌های بزرگی با خرید تبلیغات هوش مصنوعی، قصد دارند افکار عمومی را نسبت به اخلاق آن مهربان کنند. اما در واقع اغلب شرکت‌ها، از اخلاق هوش مصنوعی فقط در بیانیه‌های روابط عمومی استفاده می‌کنند. دادهها مشخص می‌کنند که کمتر از ۴۰٪ این شرکت‌ها سیاست واقعی اخلاقی در مورد هوش مصنوعی دارند.

معقول است، اما چه اتفاقی می‌افتد؟

دسیسات داده‌کاوی و تحلیل رفتار انسانی بدون آگاهی فرد، شایعاتی شده‌است که عمیق‌تر از مباحثات عموچونارو هستند. راه‌حل؟ بحث عمومی در ستادهای دانشکده‌ها و وبینارهای اخلاق و هوش مصنوعی.

راز پنجم: چرا جمعیت از اخلاق هوش مصنوعی سکوت می‌کنند؟

بیشترین آسیب‌ها از هوش مصنوعی در بین اقتصادهای خرد و جوامع محروم جهان رخ داده است. چند کشور در آفریقا ادعای بسیاری کرده‌اند که سیستم‌های تشخیص جرمی این فناوری، باعث نابرابری‌های اجتماعی شده‌اند. اما بحث در این زمینه محدود است، چون برخی مدعیان آموزش اخلاقی، محتواهای نقدی را سانسور کردند.

درباره همه اینها چه باید کرد؟

یک دعوت از خودتان

مطالعات برخی کارشناسان جهانی نشان می‌دهد شما می‌توانید اخلاق هوش مصنوعی را از طریق چهارراه‌هایی مثل обучения، الحاق در سازمانهای نظارتی، مشارکت در ظفران‌های استانداردسازی، و تولید نرم‌افزارهای رایگان تحت معاهدهای اخلاقی، رهبری کنید. کاربران امروز، ناظران فردا هستند.

بسیاری نشناخته‌‌اند که فقط با فرهنگ‌سازی صحیح و تعامل با سیاست‌گذاری، اخلاق هوش مصنوعی می‌تواند به یک اقدام ملموس در جهان تبدیل شود. سوال اینجاست: آیا شما هم می‌خواهید بخشی از این حرکت باشید؟

ادامه مطلب
برای افزودن دیدگاه کلیک کنید

یک پاسخ بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سلب مسئولیت: تمامی اخبار و محتوای منتشر شده در این سایت صرفاً جنبه اطلاع‌رسانی داشته و از منابع و سایت‌های معتبر گردآوری می‌شوند. «پیک ایران» هیچگونه مسئولیتی در قبال صحت، دقت و تمامیت محتوای منتشر شده ندارد. منبع اصلی هر خبر در انتهای آن ذکر شده و مسئولیت محتوا بر عهده منبع اولیه است. استفاده از مطالب این سایت با ذکر منبع بلامانع است.