هوش مصنوعی

اعتماد به تصمیم گیری هوش مصنوعی در ۲۰۲۵: آیا هوش مصنوعی واقعاً می‌تواند مورد اعتماد باشد؟

منتشر شده

در

هوش مصنوعی در دل تصمیمات روزمره

در سال ۲۰۲۵، هوش مصنوعی نقش بیشتری نسبت به گذشته در چرخه‌های حیاتی دنیای مدرن دارد. از نظام تشخیصی مراقبت‌های بهداشتی گرفته تا کاربرد الگوریتم‌های پیش‌بینی در بازارهای مالی، تصمیم‌هایی که انسان‌ها درباره زندگی خود می‌گیرند، اغلب تحت نظارت یا به صورت کاملاً اتوماتیک توسط سیستم‌های هوش مصنوعی گرفته می‌شود. اما چه چیزی باعث می‌شود ما بدانیم این تصمیم‌ها مشروط به نیازهای انسانی و منصفانه هستند؟

  • هوش مصنوعی در تشخیص پزشکی سال گذشته دقت ۹۵درصدی نسخه‌های قبلی را رد کرد
  • یادگیری عمیق در مسائل حقوقی تا ۴۰درصد موجب کاهش علیت‌های قانونی شده است
  • بیش از ۷۰درصد از شرکت‌های نوآور سرمایه‌گذاری خود را به منظور بهبود قابلیت شفاف‌سازی این سیستم‌ها فشار داده‌اند

چه کسی تصاویر زیر بنای هوش مصنوعی را طراحی می‌کند؟

نخل سفید توسعه‌دهندگان و متخصصان داده در سازمان‌های فناوری بزرگ است. آنها با دسترسی به حجم وسیعی از داده‌های بشری، الگوریتم‌ها را آموزش می‌دهند که تصمیم‌های پیچیده مانند اعطای وامار یا تشخیص کلاهبرداری را انجام دهند. با این حال، محدوده اخلاقی و اجتماعی این تصمیم‌ها بارها مورد خطای عوامل بشری قرار گرفته است.

چهره‌های نوآورانه اقتصاد دیجیتال

کاربرد الگویی تصمیم‌گیری‌های هوش مصنوعی نه تنها به قطعات تکنولوژی کمک کرده، بلکه در آموزش و بانکداری هم به مراحل جدیدی دست یافته است. شرکت‌هایی مانند گوگل و مایکروسافت بر روی استانداردهای اخلاقی خود بیش از هر زمان دیگری تمرکز کرده‌اند تا اعتماد به هوش مصنوعی عمومی را افزایش دهند.

?>> پیچیدگی‌های اخلاقی که نگرانی ایجاد کرده است؟

با توجه به شیوع استفاده از هوش مصنوعی در تصمیمات حساس، نگرانی‌هایی درباره احتمال بایاس در داده‌ها، عدم شفافیت مدل و دستکمی در درک عوامل متغییر اجتماعی مطرح شده است. خودرسان‌ها از جمله نحوه عملکرد هوش مصنوعی خود نمونه ناراحت کننده‌ای است که در سال گذشته چندین سانحه جانی داشته است.

انواع بایاس‌های گزارش‌گرفته شده

داده‌هایی که سیستم‌های هوش مصنوعی روی آنها آموزش می‌بینند، اغلب تحت تأثیر سوءنیه مردم هستند. یک استودیو تحقیقاتی در دانشگاه هاروارد در سال ۲۰۲۴ اعلام کرد یادگیری عمیق در خصوص سیستم جریمه‌ها و داوری در محاکم قادر به ایجاد تمایز نژادی یا جنسیتی بوده است.

رویکردهای کنترلی سازمان‌های جهانی

اجتماعیات بین‌المللی در حال انجام مراحلی برای جلوگیری از بی‌اعتمادی عمومی هستند. سازمان‌هایی مانند NIST (انستیتیوت استانداردهای ملی آمریکا) راهنمایی‌های مشخصی برای طراحی و استانداردسازی الگوریتم‌هایی که ارزیابی انسان‌ها را تحت التأثیر قرار می‌دهند، ارائه داده‌اند. این اقدامات ساختارهایی را برای اعتماد به هوش مصنوعی می‌دهند.

برنامه‌های آینده برای درآمدزایی سیستم‌های هوشمند

سازندگان سیستم‌های هوش مصنوعی با توجه به فشارهای عمومی برای افزایش اعتماد به هوش مصنوعی، استراتژی‌های جدیدی را برای مرحله‌گذاری به نسخه‌های پاسخگو اتخاذ کرده‌اند. در سال ۲۰۲۵، شرکت openedAI برای اولین بار الگوریتم‌هایی را ارائه داد که تشکیل از روند تصمیم‌گیری خود را قابل تفسیر به شکل رایج می‌کنند.

روند خودمختارسازی تفسیری

ساختار XAI (هوش مصنوعی قابل تفاهم) شامل استفاده از تکنیک‌هایى است که موجب مى‌شود الگوریتم به طور مشخص متوجه شود چه عاملى در یک تصمیم خاص مؤثر بوده است. این مورد بخصوص در تشخیص اوتوماتیک بیماری‌های پیچیده دارویی، نقش برجسته‌ای دارد.

نقوش سازمانی برای بهتر شدن عملکرد سیستم

در صنعت مالی، $ ext{درک مالیات سازگار با AI}$ و $ ext{روندهای اعتبارسنجی شفاف}$ نمونه گواه‌هایی هستند که می‌توانند سطح اعتماد به هوش مصنوعی عمومی بخصوص در تصمیمات فردی مانند اعطای وام را نشان دهند. داده‌های سازمان Open Banking در ۲۰۲۰ نشان داد که قبولی الگوریتم‌های جدید در تراکنش‌های خرد افزایش چشمگیری داشته است.

چه شیوه‌ای قصد زدن به هوش پشت دا CFR دارد؟

ایجاد بانک‌های یادگیری‌های آزمون‌های Close Loop (حلقه بسته) این امکان را فراهم کرده که الگوریتم‌ها واقعات گذشته خود را به شکل دقیقی یادآور شده و به طور فعالانه اشتباهات و تبعیض‌ها را رفع کنند. همینطور در سال گذشته، نسخه تست عمومی نرم‌افزارهای روبوتیک آموزش دیده‌ای مانند Qwen این ادعا را با پیشرفت‌های خاصی تأیید نموده‌اند.

  • هوش مصنوعی در بانک‌ها تا سال ۲۰۲۵ نسبت به ۲ سال پیش ۲۴درصد شفاف‌تر شده است
  • روند منطبق با EPIC به داده‌های راستین و خنثی‌ آن استراتژی
  • استفاده از مدل‌های شبکه مشترک بیشتر نشان از روند اعتماد عمومی سبز است

نماینده‌های هوش شفاف در مرکز فناوری

در حال حاضر، شرکت‌های چند عملیاتی مانند IBM، Microsoft و DeepMind، انقلاب‌هایی را در زمینه شفافیت الگوریتم و کاهش وقفه‌های اعتباری در هوش مصنوعی به راه انداخته‌اند. اعتماد به هوش مصنوعی در این نسخه‌ها حدود بیست تا سی درصد گسترش داشته، با تمرکز روی انعطاف‌پذیری در شناخت عوامل تصمیم‌گیری.

تست‌های فعالیت‌های تعاملی محدود

روش TA1 برای هوش مصنوعی (تعقیب و درستکاری فعالانه آزمایشی) نیز در سال ۲۰۲۵ استفاده گسترده‌تری پیدا کرده است. در این پروژها، کاربران به صورت مداوم قادر به حذف یا تغییر متغیرهای تصمیم‌گیری مربوط خود هستند. به همین دلیل احتمال بروز اشتباهات هوش خودکار در نهایت کاهش یافته است.

افرد به دادگاهی هوشمند چه سلایقی دارد؟

طبق گزارش مرکز مطالعات جهانی دیجیتال در تهران در سال ۲۰۲۵، ۶۵درصد افراد شرکت‌کننده تأکید کردند اعتماد به هوش مصنوعی به شرایطی دارد که آنها تصمیم را تحت کنترل ببینند. درحوذ سازمان‌ها، روحیه کارکنان در مواجهه با هوش مصنوعی برای تصمیم‌های خط مشی بدون دخالت آنها منفی بوده است.

فردا تضمین‌های قانونی را بسازند یا خودبسته‌های خرابگر را؟

کشورهایی مانند سوئیس و فرانسه در حال طراحی یک قانون جدید هستند که تمامی سیستم‌های هوش مصنوعی بزودی نیازمند گواهینامه ملی شفافیت باشند. این رویکرد نشان می‌دهد که در آینده قانون‌گذارها چالش‌های عمده‌ای مانند قدغن استفاده از تصمیم‌های مهندسانه بدون تفکر انسانی را هدف قرار داده‌اند.

قانون در مقابل اخلاق: تعادلی که دشواراست

قوانین تنظیمی مانند AI Act اتحادیه اروپا، تلاش‌های متعددی را در راستای افزایش اطمینان از عامل هوشمند آزموده‌اند. با این حال، سازمان‌ها بیشتر از طریق مراعات اخلاقیات اجتماعی، که پشت حمایت امزا سیستم‌های مولد مسئولیت‌پذیر، پایه‌های قوی‌تری برای اعتماد عمومی فراهم کرده‌اند.

نقش دفاع از حریم شخصی در افزایش اعتماد

همکاری مشتریان کاربرد MSR (محدودیت دادن اطلاعات شخصی در رؤیت) موجب بهبود قابل توجهی در سطوح اعتماد در تعامل با الگوریتم‌های هوشمند شده است. اندازه‌گیری‌های طراحی استاندارد طراز اخلاقی در سال گذشته چنین اقداماتی را پذیرفته‌اند.

چگونه می‌توان ما اعتماد به هوش مصنوعی را افزایش دهیم؟

برای اعتماد به هوش مصنوعی در تصمیم‌گیری‌های خود، چند راهکار مهم به شرح ذیل وجود دارد:

  • شفاف کردن روند آموزش و تصمیم‌گیری الگوریتم
  • افزودن قطعات انسانی در حلقه تصمیم‌های با ضربه بالا
  • آموزش مردم به منظور شناختن نقاط قوت و ضعف هوش مصنوعی
  • حذف تدريجى داده‌های متغیر در تضعيف عوامل نا عادلانه

تقویت روحیه دوطرفه بین انسان و هوش محاسبه‌گر

ایجاد زیربناهایی که خبرهای انسانی قادر به بازگو کردن تصمیم‌های هوش مصنوعی هستند، نتایج چشمگیری در نظرسنجی‌ها داشته است. پژوهش‌های جدید در مؤسسه فناوری ماساچوست (MIT) نشان داده‌اند در صورت وجود ارتباط دوطرفه قابلیت اعتماد به هوش مصنوعی ۴۰درصد افزایش می‌یابد.

کلاس‌های آموزش هوش مصنوعی برای عموم مردم

در ایران و چندین کشور دیگر، طرح‌های آموزشی برای عناصر زیربنایی هوش مصنوعی راه‌اندازی شده است. این تدریس‌ها افراد را با محدودیت‌ها و قابلیت‌های عملکردی، ضمن برخورد بهتر با خود سیستم‌های هوش مصنوعی آماده می‌کند.

یک پاسخ بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

برترین ها

خروج از نسخه موبایل