تعریف اعتماد در هوش مصنوعی (AI Trust)
هوش مصنوعی (AI) به تندی در زمینههای مختلف مانند سلامت، آموزش و مالی سرگرم دنیا شده است. با این حال، پیشرفتهای فنی نمیتوانند جایگزین اعتماد خودکار شوند. AI Trust به معنی جایگاه نظاممند هوش مصنوعی در ذهن عموم و موسسات است و برای موفقیت هر سیستم جدید، ظریفترین مبحث محسوب میشود؛ زیرا شکست در ایجاد اعتماد منجر به مقاومت کاربران، ناامنی دادهها و نهایتاً از دست دادن فرصتهای نوآورانهای خواهد شد.
روابط تعاملی هوش مصنوعی و اعتماد
در دنیایی که هوش مصنوعی تصمیمگیریهای خودکار انجام میدهد، سوالاتی مانند “چگونه این تصمیمها مورد ارزیابی قرار میگیرند؟” یا “خطاهای سیستم چه پیامدهایی دارد؟” ایجاد میشود. بدون شفافیت در پاسخ به این سوالات، اعتماد به AI دچار ارتجاف میشود. بیش از ۷۰٪ افراد در آمریکا بیان کردهاند که در استفاده از هوش مصنوعی هراسی نسبی احساس میکنند (منبع: Gallup 2023)، حاکی از اهمیت موضوع است.
منشاء عدم اعتماد به هوش مصنوعی
دقت و محدودیتهای الگوریتمها
بسیاری از مدلهای هوش مصنوعی نظیر GPT-4 یا DeepMind با وجود قدرتمندی، گاه اطلاعات غلط تولید میکنند. به منظور تعمیم مشکل، یک فرمان فدرال اخیر در ایالات متحده نگرانی از تصمیمهای بیماریزاپزیرکننده خودکار در سلامت عمومی را اعلام کرد. چنین شرایطی باعث به وجود آمدن تردید در مورد “AI Trust” میشود.
نگرانی از حریم خصوصی
هوش مصنوعی مدرن به دادههای عظیمی نیاز دارد. شرکتهایی مانند Google و Meta برای جمعآوری دادههای کاربری مورد انتقاد قرار گرفتهاند. به این ترتیب، سوالاتی مطرح میشود که آیا استفاده از این فناوری شامل جاسوسی ناخواسته است؟ این سوال بدون پاسخ در انسانها ایجاد ناارزیابی میکند. براساس گزارش بینالملل اتحاد زیرساختهای دیجیتال (2022)، ۶۰٪ کاربران راکورد دادن دادههای شخصی به سیستمهای هوشمند را خطرناک مییابند.
راههای افزایش اعتماد به هوش مصنوعی
شفافیت در فرایندهای هوش مصنوعی
تضمین شفافیت ابتکاری است که سازمانهایی چون IBM انجام دادهاند. به عنوان مثال، IBM با انتشار مستندات کامل از نحوه عملکرد هوش مصنوعی در سیستمهای تشخیص بیماری، موفق به جذب “AI Trust” شده است. چالشهایی چون هالوسیناسیون مدلها تنها با نظارت صریح قابل کنترل هستند.
مشارکت عمومی در تصمیمگیری
فناوری هوش مصنوعی نمیتواند بیرون از چالشهای انسانی باقی بماند. شورای اروپا را برای طراحی “AI Trust” سازنده و متقاطع در نظر بگیرید. در سال 2023، آنها درخواست کردند که در اجرای قوانین هوش مصنوعی، دانشگاهها و گروههای مردمی همکاری کنند. این امر موجب می شود کاربران بفرمایند که AI گوش به دیکه در تصمیماتش، فرایندهای شرکتی نیست بلکه هماهنگ با ارزشها است.
- kiemzet دادههای اخلاقی (Ethical Datasets)
- ایجاد شبکههای بازخورد عمومی
- اجرای قوانین مالی خودمختاری قابل شناسایی
- برنامههای آموزش عمومی درباره کارکرد AI
نقش نظارت و تنظیم مقررات در اعتماد به AI
GDPR و هوش مصنوعی
قوانین نظارتی مثل GDPR در اروپا باعث ثبت روشهای جیرهبندی شده برای append دادهها شدهاند. این قانون موجب تقویت منحصربهفرد “AI Trust” در کاربران عادی شده است. در عوض، در مناطقی بدون مقررات، مشابه افغانستان یا بازارهای آفریقایی، استفاده ناخواسته ازAI باعث فراگیری عدم اطمینان شده است.
پروژههای بینالمللی برای مدیریت ریسک
پروژه “AI for Humanity” در فرانسه مثال زندهای است. این مجموعه با خودسازماندهی نظامهای هوشمند برای صدور گزارشات و راهنماهای منظم، اعتماد عمومی را به سیستمهای هوشمند بازیابی کردهاست. این برنامه همراه با آمارهای کاهش شکایات عمومی (۲۳٪ در دو سال) گواهگر روش موفق است.
نمونههای عملی از شکستهای اعتماد در هوش مصنوعی
داستان Meta Bot در مسائل اجتماعی
در سال 2022، ربات گفتگوی AI شرکت Meta به دلیل گفتن سخنان شدید و توهینپذیر م暖心 ایجاد کرد. این فاجعه باعث شد بیش از ۲ هزار شکایت از طریق طرح کاملاً جدی در سطح آمریکا وارد دادگاهها شود. Meta ناگزیر از معرفی یک کمیته نظارتی برای پلمپ چنین حوادثی شد.
رویداد تشخیص خطاکار سیستم تشخیص چهره
در بریتانیا، الگوریتم تشخیص صورت استفاده شده مستنداتش غلط توصیفکننده افراد برجسته تارنمایی را داد. این امر باعث اقدام قضایی غیرمنتظره شد و تأیید کرد: اهمیت «اعتماد به هوش مصنوعی» را باید بر قانونگذاران نیز بشناسند.
آینده اعتماد و هوش مصنوعی
تحویل اعتماد با مدلهای فراموشی
یکی از تحولات وعدهدهنده، فناوری مدلهای “فراموشهای” است که دادههای قدیمی را جهت محرمانه بودن حذف میکنند. از آن جمله میتوان به پروژه “AI چشمانداز سبز” اشاره کرد که همراه با دانشگاه Oxford و با هدف نمو کماسترس هوش مصنوعی در بین عموم طراحی شده است.
در نظر گرفتن روندها نشان میدهد که “AI Trust” باید به عنوان عنصر غیرقابل تفکیک از توسعه هوش مصنوعی در آینده دیده شود. یافتههای موسسه McKinsey نشان میدهد که ۵۸٪ شرکتهایی که موفق به ایجاد اعتماد در AI شدهاند، بازارگردانی چندین برابری داشتهاند. بنابراین، پیشرفت فنی بدون “اعتماد به هوش مصنوعی” فاقد هویت و جایگاه است.
چشمانداز کوتاهمدت و بلندمدت
در یک دوره ۵ ساله، باید قوانین جدیدی در زمینه Accountability و قابلدسترسی بودن الگوریتمها نوشت تا اعتماد سازنده ایجاد شود. اما در کوتاهمدت نیز سازمانها میتوانند از امورات مانند تمرینهای AI را عمومی کردن راهنماییها درباره چگونگی عملکرد مدلهای خود شروع کنند.
نتیجهگیری و دعوت به اقدام
“AI Trust” نه فقط مسئله ریسک مدیریت فناوری است، بلکه فرصتی است تا سیستمهای هوش مصنوعی انسانیتپسندتر را گسترش دهیم. با همکاری ریاست نظارتی، پژوهشگران و جامعه، میتوان زمینه ایجاد اعتماد استوار را فراهم کرد. شما را دعوت میکنیم که بیشتر درباره استانداردهای جهانی این حوزه بخوانید و در گفتگوها مشارکت کنید؛ زیرا سرنوشت هوش مصنوعی در دستان همگان است. کلام ما در این است: روزی که AI به عنوان دوست خوابالودهای سالاری میشود، همه شایسته پاسخدهی منصفانه باشند.