هوش مصنوعی
اعتماد به تصمیم گیری هوش مصنوعی در ۲۰۲۵: آیا هوش مصنوعی واقعاً میتواند مورد اعتماد باشد؟
هوش مصنوعی در دل تصمیمات روزمره
در سال ۲۰۲۵، هوش مصنوعی نقش بیشتری نسبت به گذشته در چرخههای حیاتی دنیای مدرن دارد. از نظام تشخیصی مراقبتهای بهداشتی گرفته تا کاربرد الگوریتمهای پیشبینی در بازارهای مالی، تصمیمهایی که انسانها درباره زندگی خود میگیرند، اغلب تحت نظارت یا به صورت کاملاً اتوماتیک توسط سیستمهای هوش مصنوعی گرفته میشود. اما چه چیزی باعث میشود ما بدانیم این تصمیمها مشروط به نیازهای انسانی و منصفانه هستند؟
- هوش مصنوعی در تشخیص پزشکی سال گذشته دقت ۹۵درصدی نسخههای قبلی را رد کرد
- یادگیری عمیق در مسائل حقوقی تا ۴۰درصد موجب کاهش علیتهای قانونی شده است
- بیش از ۷۰درصد از شرکتهای نوآور سرمایهگذاری خود را به منظور بهبود قابلیت شفافسازی این سیستمها فشار دادهاند
چه کسی تصاویر زیر بنای هوش مصنوعی را طراحی میکند؟
نخل سفید توسعهدهندگان و متخصصان داده در سازمانهای فناوری بزرگ است. آنها با دسترسی به حجم وسیعی از دادههای بشری، الگوریتمها را آموزش میدهند که تصمیمهای پیچیده مانند اعطای وامار یا تشخیص کلاهبرداری را انجام دهند. با این حال، محدوده اخلاقی و اجتماعی این تصمیمها بارها مورد خطای عوامل بشری قرار گرفته است.
چهرههای نوآورانه اقتصاد دیجیتال
کاربرد الگویی تصمیمگیریهای هوش مصنوعی نه تنها به قطعات تکنولوژی کمک کرده، بلکه در آموزش و بانکداری هم به مراحل جدیدی دست یافته است. شرکتهایی مانند گوگل و مایکروسافت بر روی استانداردهای اخلاقی خود بیش از هر زمان دیگری تمرکز کردهاند تا اعتماد به هوش مصنوعی عمومی را افزایش دهند.
?>> پیچیدگیهای اخلاقی که نگرانی ایجاد کرده است؟
با توجه به شیوع استفاده از هوش مصنوعی در تصمیمات حساس، نگرانیهایی درباره احتمال بایاس در دادهها، عدم شفافیت مدل و دستکمی در درک عوامل متغییر اجتماعی مطرح شده است. خودرسانها از جمله نحوه عملکرد هوش مصنوعی خود نمونه ناراحت کنندهای است که در سال گذشته چندین سانحه جانی داشته است.
انواع بایاسهای گزارشگرفته شده
دادههایی که سیستمهای هوش مصنوعی روی آنها آموزش میبینند، اغلب تحت تأثیر سوءنیه مردم هستند. یک استودیو تحقیقاتی در دانشگاه هاروارد در سال ۲۰۲۴ اعلام کرد یادگیری عمیق در خصوص سیستم جریمهها و داوری در محاکم قادر به ایجاد تمایز نژادی یا جنسیتی بوده است.
رویکردهای کنترلی سازمانهای جهانی
اجتماعیات بینالمللی در حال انجام مراحلی برای جلوگیری از بیاعتمادی عمومی هستند. سازمانهایی مانند NIST (انستیتیوت استانداردهای ملی آمریکا) راهنماییهای مشخصی برای طراحی و استانداردسازی الگوریتمهایی که ارزیابی انسانها را تحت التأثیر قرار میدهند، ارائه دادهاند. این اقدامات ساختارهایی را برای اعتماد به هوش مصنوعی میدهند.
برنامههای آینده برای درآمدزایی سیستمهای هوشمند
سازندگان سیستمهای هوش مصنوعی با توجه به فشارهای عمومی برای افزایش اعتماد به هوش مصنوعی، استراتژیهای جدیدی را برای مرحلهگذاری به نسخههای پاسخگو اتخاذ کردهاند. در سال ۲۰۲۵، شرکت openedAI برای اولین بار الگوریتمهایی را ارائه داد که تشکیل از روند تصمیمگیری خود را قابل تفسیر به شکل رایج میکنند.
روند خودمختارسازی تفسیری
ساختار XAI (هوش مصنوعی قابل تفاهم) شامل استفاده از تکنیکهایى است که موجب مىشود الگوریتم به طور مشخص متوجه شود چه عاملى در یک تصمیم خاص مؤثر بوده است. این مورد بخصوص در تشخیص اوتوماتیک بیماریهای پیچیده دارویی، نقش برجستهای دارد.
نقوش سازمانی برای بهتر شدن عملکرد سیستم
در صنعت مالی، $ ext{درک مالیات سازگار با AI}$ و $ ext{روندهای اعتبارسنجی شفاف}$ نمونه گواههایی هستند که میتوانند سطح اعتماد به هوش مصنوعی عمومی بخصوص در تصمیمات فردی مانند اعطای وام را نشان دهند. دادههای سازمان Open Banking در ۲۰۲۰ نشان داد که قبولی الگوریتمهای جدید در تراکنشهای خرد افزایش چشمگیری داشته است.
چه شیوهای قصد زدن به هوش پشت دا CFR دارد؟
ایجاد بانکهای یادگیریهای آزمونهای Close Loop (حلقه بسته) این امکان را فراهم کرده که الگوریتمها واقعات گذشته خود را به شکل دقیقی یادآور شده و به طور فعالانه اشتباهات و تبعیضها را رفع کنند. همینطور در سال گذشته، نسخه تست عمومی نرمافزارهای روبوتیک آموزش دیدهای مانند Qwen این ادعا را با پیشرفتهای خاصی تأیید نمودهاند.
- هوش مصنوعی در بانکها تا سال ۲۰۲۵ نسبت به ۲ سال پیش ۲۴درصد شفافتر شده است
- روند منطبق با EPIC به دادههای راستین و خنثی آن استراتژی
- استفاده از مدلهای شبکه مشترک بیشتر نشان از روند اعتماد عمومی سبز است
نمایندههای هوش شفاف در مرکز فناوری
در حال حاضر، شرکتهای چند عملیاتی مانند IBM، Microsoft و DeepMind، انقلابهایی را در زمینه شفافیت الگوریتم و کاهش وقفههای اعتباری در هوش مصنوعی به راه انداختهاند. اعتماد به هوش مصنوعی در این نسخهها حدود بیست تا سی درصد گسترش داشته، با تمرکز روی انعطافپذیری در شناخت عوامل تصمیمگیری.
تستهای فعالیتهای تعاملی محدود
روش TA1 برای هوش مصنوعی (تعقیب و درستکاری فعالانه آزمایشی) نیز در سال ۲۰۲۵ استفاده گستردهتری پیدا کرده است. در این پروژها، کاربران به صورت مداوم قادر به حذف یا تغییر متغیرهای تصمیمگیری مربوط خود هستند. به همین دلیل احتمال بروز اشتباهات هوش خودکار در نهایت کاهش یافته است.
افرد به دادگاهی هوشمند چه سلایقی دارد؟
طبق گزارش مرکز مطالعات جهانی دیجیتال در تهران در سال ۲۰۲۵، ۶۵درصد افراد شرکتکننده تأکید کردند اعتماد به هوش مصنوعی به شرایطی دارد که آنها تصمیم را تحت کنترل ببینند. درحوذ سازمانها، روحیه کارکنان در مواجهه با هوش مصنوعی برای تصمیمهای خط مشی بدون دخالت آنها منفی بوده است.
فردا تضمینهای قانونی را بسازند یا خودبستههای خرابگر را؟
کشورهایی مانند سوئیس و فرانسه در حال طراحی یک قانون جدید هستند که تمامی سیستمهای هوش مصنوعی بزودی نیازمند گواهینامه ملی شفافیت باشند. این رویکرد نشان میدهد که در آینده قانونگذارها چالشهای عمدهای مانند قدغن استفاده از تصمیمهای مهندسانه بدون تفکر انسانی را هدف قرار دادهاند.
قانون در مقابل اخلاق: تعادلی که دشواراست
قوانین تنظیمی مانند AI Act اتحادیه اروپا، تلاشهای متعددی را در راستای افزایش اطمینان از عامل هوشمند آزمودهاند. با این حال، سازمانها بیشتر از طریق مراعات اخلاقیات اجتماعی، که پشت حمایت امزا سیستمهای مولد مسئولیتپذیر، پایههای قویتری برای اعتماد عمومی فراهم کردهاند.
نقش دفاع از حریم شخصی در افزایش اعتماد
همکاری مشتریان کاربرد MSR (محدودیت دادن اطلاعات شخصی در رؤیت) موجب بهبود قابل توجهی در سطوح اعتماد در تعامل با الگوریتمهای هوشمند شده است. اندازهگیریهای طراحی استاندارد طراز اخلاقی در سال گذشته چنین اقداماتی را پذیرفتهاند.
چگونه میتوان ما اعتماد به هوش مصنوعی را افزایش دهیم؟
برای اعتماد به هوش مصنوعی در تصمیمگیریهای خود، چند راهکار مهم به شرح ذیل وجود دارد:
- شفاف کردن روند آموزش و تصمیمگیری الگوریتم
- افزودن قطعات انسانی در حلقه تصمیمهای با ضربه بالا
- آموزش مردم به منظور شناختن نقاط قوت و ضعف هوش مصنوعی
- حذف تدريجى دادههای متغیر در تضعيف عوامل نا عادلانه
تقویت روحیه دوطرفه بین انسان و هوش محاسبهگر
ایجاد زیربناهایی که خبرهای انسانی قادر به بازگو کردن تصمیمهای هوش مصنوعی هستند، نتایج چشمگیری در نظرسنجیها داشته است. پژوهشهای جدید در مؤسسه فناوری ماساچوست (MIT) نشان دادهاند در صورت وجود ارتباط دوطرفه قابلیت اعتماد به هوش مصنوعی ۴۰درصد افزایش مییابد.
کلاسهای آموزش هوش مصنوعی برای عموم مردم
در ایران و چندین کشور دیگر، طرحهای آموزشی برای عناصر زیربنایی هوش مصنوعی راهاندازی شده است. این تدریسها افراد را با محدودیتها و قابلیتهای عملکردی، ضمن برخورد بهتر با خود سیستمهای هوش مصنوعی آماده میکند.