با ما همراه باشید

هوش مصنوعی

چالش بزرگ هوش مصنوعی: تکنولوژی نیست، بلکه اعتماد است

منتشر شده

در

تعریف اعتماد در هوش مصنوعی (AI Trust)

هوش مصنوعی (AI) به تندی در زمینه‌های مختلف مانند سلامت، آموزش و مالی سرگرم دنیا شده است. با این حال، پیشرفت‌های فنی نمی‌توانند جایگزین اعتماد خودکار شوند. AI Trust به معنی جایگاه نظام‌مند هوش مصنوعی در ذهن عموم و موسسات است و برای موفقیت هر سیستم جدید، ظریف‌ترین مبحث محسوب می‌شود؛ زیرا شکست در ایجاد اعتماد منجر به مقاومت کاربران، ناامنی داده‌ها و نهایتاً از دست دادن فرصت‌های نوآورانهای خواهد شد.

روابط تعاملی هوش مصنوعی و اعتماد

در دنیایی که هوش مصنوعی تصمیم‌گیری‌های خودکار انجام می‌دهد، سوالاتی مانند “چگونه این تصمیم‌ها مورد ارزیابی قرار می‌گیرند؟” یا “خطاهای سیستم چه پیامدهایی دارد؟” ایجاد می‌شود. بدون شفافیت در پاسخ به این سوالات، اعتماد به AI دچار ارتجاف می‌شود. بیش از ۷۰٪ افراد در آمریکا بیان کرده‌اند که در استفاده از هوش مصنوعی هراسی نسبی احساس می‌کنند (منبع: Gallup 2023)، حاکی از اهمیت موضوع است.

منشاء عدم اعتماد به هوش مصنوعی

دقت و محدودیت‌های الگوریتم‌ها

بسیاری از مدل‌های هوش مصنوعی نظیر GPT-4 یا DeepMind با وجود قدرتمندی، گاه اطلاعات غلط تولید می‌کنند. به منظور تعمیم مشکل، یک فرمان فدرال اخیر در ایالات متحده نگرانی از تصمیم‌های بیماری‌زاپزیرکننده خودکار در سلامت عمومی را اعلام کرد. چنین شرایطی باعث به وجود آمدن تردید در مورد “AI Trust” می‌شود.

نگرانی از حریم خصوصی

هوش مصنوعی مدرن به داده‌های عظیمی نیاز دارد. شرکت‌هایی مانند Google و Meta برای جمع‌آوری داده‌های کاربری مورد انتقاد قرار گرفته‌اند. به این ترتیب، سوالاتی مطرح می‌شود که آیا استفاده از این فناوری شامل جاسوسی ناخواسته است؟ این سوال بدون پاسخ در انسان‌ها ایجاد ناارزیابی می‌کند. براساس گزارش بین‌الملل اتحاد زیرساخت‌های دیجیتال (2022)، ۶۰٪ کاربران راکورد دادن داده‌های شخصی به سیستم‌های هوشمند را خطرناک می‌یابند.

راه‌های افزایش اعتماد به هوش مصنوعی

شفافیت در فرایندهای هوش مصنوعی

تضمین شفافیت ابتکاری است که سازمان‌هایی چون IBM انجام داده‌اند. به عنوان مثال، IBM با انتشار مستندات کامل از نحوه عملکرد هوش مصنوعی در سیستم‌های تشخیص بیماری، موفق به جذب “AI Trust” شده است. چالش‌هایی چون هالوسیناسیون مدل‌ها تنها با نظارت صریح قابل کنترل هستند.

مشارکت عمومی در تصمیم‌گیری

فناوری هوش مصنوعی نمی‌تواند بیرون از چالش‌های انسانی باقی بماند. شورای اروپا را برای طراحی “AI Trust” سازنده و متقاطع در نظر بگیرید. در سال 2023، آن‌ها درخواست کردند که در اجرای قوانین هوش مصنوعی، دانشگاه‌ها و گروه‌های مردمی همکاری کنند. این امر موجب می شود کاربران بفرمایند که AI گوش به دیکه در تصمیماتش، فرایندهای شرکتی نیست بلکه هماهنگ با ارزش‌ها است.

  • kiemzet داده‌های اخلاقی (Ethical Datasets)
  • ایجاد شبکه‌های بازخورد عمومی
  • اجرای قوانین مالی خودمختاری قابل شناسایی
  • برنامه‌های آموزش عمومی درباره کارکرد AI

نقش نظارت و تنظیم مقررات در اعتماد به AI

GDPR و هوش مصنوعی

قوانین نظارتی مثل GDPR در اروپا باعث ثبت روش‌های جیره‌بندی شده برای append داده‌ها شده‌اند. این قانون موجب تقویت منحصربه‌فرد “AI Trust” در کاربران عادی شده است. در عوض، در مناطقی بدون مقررات، مشابه افغانستان یا بازارهای آفریقایی، استفاده ناخواسته ازAI باعث فراگیری عدم اطمینان شده است.

پروژه‌های بین‌المللی برای مدیریت ریسک

پروژه “AI for Humanity” در فرانسه مثال زنده‌ای است. این مجموعه با خودسازماندهی نظام‌های هوشمند برای صدور گزارشات و راهنماهای منظم، اعتماد عمومی را به سیستم‌های هوشمند بازیابی کرده‌است. این برنامه همراه با آمارهای کاهش شکایات عمومی (۲۳٪ در دو سال) گواه‌گر روش موفق است.

نمونه‌های عملی از شکست‌های اعتماد در هوش مصنوعی

داستان Meta Bot در مسائل اجتماعی

در سال 2022، ربات گفتگوی AI شرکت Meta به دلیل گفتن سخنان شدید و توهین‌پذیر م暖心 ایجاد کرد. این فاجعه باعث شد بیش از ۲ هزار شکایت از طریق طرح کاملاً جدی در سطح آمریکا وارد دادگاه‌ها شود. Meta ناگزیر از معرفی یک کمیته نظارتی برای پلمپ چنین حوادثی شد.

رویداد تشخیص خطاکار سیستم تشخیص چهره

در بریتانیا، الگوریتم تشخیص صورت استفاده شده مستنداتش غلط توصیف‌کننده افراد برجسته تارنمایی را داد. این امر باعث اقدام قضایی غیرمنتظره شد و تأیید کرد: اهمیت «اعتماد به هوش مصنوعی» را باید بر قانون‌گذاران نیز بشناسند.

آینده اعتماد و هوش مصنوعی

تحویل اعتماد با مدل‌های فراموشی

یکی از تحولات وعده‌دهنده، فناوری مدل‌های “فراموش‌های” است که داده‌های قدیمی را جهت محرمانه بودن حذف می‌کنند. از آن جمله می‌توان به پروژه “AI چشم‌انداز سبز” اشاره کرد که همراه با دانشگاه Oxford و با هدف نمو کم‌استرس هوش مصنوعی در بین عموم طراحی شده است.

در نظر گرفتن روندها نشان می‌دهد که “AI Trust” باید به عنوان عنصر غیرقابل تفکیک از توسعه هوش مصنوعی در آینده دیده شود. یافته‌های موسسه McKinsey نشان می‌دهد که ۵۸٪ شرکت‌هایی که موفق به ایجاد اعتماد در AI شده‌اند، بازارگردانی چندین برابری داشته‌اند. بنابراین، پیشرفت فنی بدون “اعتماد به هوش مصنوعی” فاقد هویت و جایگاه است.

چشم‌انداز کوتاه‌مدت و بلندمدت

در یک دوره ۵ ساله، باید قوانین جدیدی در زمینه Accountability و قابل‌دسترسی بودن الگوریتم‌ها نوشت تا اعتماد سازنده ایجاد شود. اما در کوتاه‌مدت نیز سازمان‌ها می‌توانند از امورات مانند تمرین‌های AI را عمومی کردن راهنمایی‌ها درباره چگونگی عملکرد مدل‌های خود شروع کنند.

نتیجه‌گیری و دعوت به اقدام

“AI Trust” نه فقط مسئله ریسک مدیریت فناوری است، بلکه فرصتی است تا سیستم‌های هوش مصنوعی انسانیت‌پسندتر را گسترش دهیم. با همکاری ریاست نظارتی، پژوهشگران و جامعه، می‌توان زمینه ایجاد اعتماد استوار را فراهم کرد. شما را دعوت می‌کنیم که بیشتر درباره استانداردهای جهانی این حوزه بخوانید و در گفتگوها مشارکت کنید؛ زیرا سرنوشت هوش مصنوعی در دستان همگان است. کلام ما در این است: روزی که AI به عنوان دوست خوابالوده‌ای سالاری می‌شود، همه شایسته پاسخ‌دهی منصفانه باشند.

ادامه مطلب
برای افزودن دیدگاه کلیک کنید

یک پاسخ بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سلب مسئولیت: تمامی اخبار و محتوای منتشر شده در این سایت صرفاً جنبه اطلاع‌رسانی داشته و از منابع و سایت‌های معتبر گردآوری می‌شوند. «پیک ایران» هیچگونه مسئولیتی در قبال صحت، دقت و تمامیت محتوای منتشر شده ندارد. منبع اصلی هر خبر در انتهای آن ذکر شده و مسئولیت محتوا بر عهده منبع اولیه است. استفاده از مطالب این سایت با ذکر منبع بلامانع است.