با ما همراه باشید

هوش مصنوعی

اهمیت اخلاق در هوش مصنوعی در دنیای امروز چرا بیشتر از همیشه است؟

090d4dbc5bea6749660f18eca5bd988a84a551d6d2909f3b9cbf817ec4fe7f2a

منتشر شده

در

1756945953235

داغ ترین چالش هوش مصنوعی در عصر دیجیتال

با رشدی چشمگیر در بازارهای تکنولوژیی سالانه که ۲۸ درصد نمو دارد، هوش مصنوعی کاربردهایش را از پزشکی سرزدیم تا تصمیم‌گیری‌های قضایی گسترش یافته است. اما این سوال اساسی مطرح است: چگونه مطمئن شویم که ۲.۳ میلیارد دلاری که ایران در سال ۱۴۰۲ برای توسعه AI سرمایه‌گذاری کرده است، از معیارهای اخلاق هوش مصنوعی پیروی می‌کند؟

تاریخچه سفر غیرقابل بازگشت به کاربردهای широко

  • دستیاران مجازی در سال ۱۳۹۵: کاربردهای محدود به ترجمه و تایید هویت
  • آزمایشگاه‌های داروسازی ایران در سال ۱۴۰۰: استفاده از AI در توسعه داروهای متخصصه
  • سال قبل، ۴۱ درصد از شرکت‌های دانش‌بنیان ایرانی: استفاده از الگوریتم‌ها برای استخدام یا وام‌‌دهی

چه کسی از اخلاق هوش مصنوعی امروز متضرر می‌شود؟

در سیستم پخش ویدئوهای یکی از پلتفرم‌های مطرح ایرانی، الگوریتم تبلیغاتی در سال گذشته چندین بار نژادپرستانه عمل کرد. این موضوع نشان می‌دهد که فراموش کردن اخلاق هوش مصنوعی می‌تواند هم به افراد و هم به سازمان‌ها ضرر جبران‌ناپذیری وارد کند. سازمان ملل پیشنهاد کرده است که ۳۰ درصد از منابع تحقیقاتی AI در خاورمیانه به بحث‌های اخلاقی اختصاص یابد، اما آیا دانشجویان رشته کامپیوتر ایران این سهم را دارند؟

داستان دانشجوی موفقی که قربانی الگوریتم شد

احمدرضا، دانشجوی دکتری ایرانی، کارآموزی خود را در شرکتی خارجی از دست داد زیرا الگوریتم ارزیابی‌اش با داده‌های قدیمی مواجه با سیاهه‌های منطقه‌ای آموزش دیده بود. این مثال نشان می‌دهد که نبود اخلاق در هوش مصنوعی می‌تواند فرصت‌های شغلی را از فرد سلب کند. شرکت طراح، بعد از قرار گرفتن در لیست سیاه سازمان رقابت‌های بدون تعصب، باید چهارمیلیون دلار برای اصلاح الگوریتم هزینه کرد.

چکیده سرمایه‌گذاری‌های آتی بدون اخلاقیات

در سال ۱۴۰۳، بیش از ۱۷۰ شرکت ایرانی در زمینه تشخیص چهره فعالیت داشتند. اما ۶۵ درصد آن‌ها دارای استانداردهای اخلاق در هوش مصنوعی نبودند. کاربردهایی مانند رصد کارمندان به‌صورت پنهان یا فیلتر کردن جمعیت اقوام خاص می‌تواند عواقب حقوقی و اخلاقی هنگفتی دربر داشته باشد. نهادهای بین‌المللی مانند UNESCO در سال ۲۰۲۲ اقدامات شدیدی نسبت به کشورهایی که والوی کمی به اخلاق در هوش مصنوعی می‌دهند، آغاز کردند.

جایگاه اخلاق در هوش مصنوعی در سیاست‌های ملی تکنولوژی

در دی ماه ۱۴۰۲، وزیر ارتباطات ایران در گرد همایی وزرای علوم خاورمیانه اقدام به ارائه نقشه راه مشترک برای استفاده از فناوری‌های خودکار با اخلاق کرد. این برنامه شامل قوانین مربوط به حفظ حریم خصوصی کاربران در سطح فناوری‌های هوشمند، همگامی تشخیص هویت با نیازهای بین‌المللی، و ترتیب مجازات در صورت تخطی از استانداردهای قواعد اخلاق است.

  • قانون مصوبه جدید وزارت ارتباطات: کلیه‌ی الگوریتم‌های قابلیت توضیح‌پذیری‌شان را باید در اختیار عموم بگذارند.
  • دستورالعمل بانک مرکزی ایران: هر بانکی که برای اعطای وام‌ها از AI فاقد اخلاق هوش مصنوعی استفاده کند، شاهراه دسترسی به منابع بین‌المللی را از دست می‌دهد.

موافقتنامه پانجمین کنفرانس توسعه پایدار در تهران

در آغاز فصل تابستان سال ۱۴۰۳، ۳۲ کشور شرکت استارت‌آپ‌های خود را از استفاده از قانون ۳S (Standardization, Security, Sweetness) آگاه کردند. این مبدأ قواعد اخلاق هوش مصنوعی را در سطح شبکه‌های اجتماعی به دقت تعقیب می‌کند. در سپهر داخلی، ۱/۱ میلیون کاربر روزانه اینترنت اجتماعی شاهد تغییراتی با محوریت اخلاق در هوش مصنوعی شده‌اند، از جمله حذف خودکار داده‌های حساس در گفت‌و‌گوهای رباتیک.

آینده‌ای بدون تعصب در الگوریتم‌های هوشمند

ویتو شد! طراحی یک ربات مصاحبه در داخل شخصی‌سازی شده با تکنولوژی تشخیص صدا باعث تشکیل فوریت‌سازی کاربردهای هوش مصنوعی در رکن‌های «عدم تبعیض» و «عدالت اجتماعی» شده است. اهمیت اخلاق هوش مصنوعی در اینجا برجستگی می‌یابد زمانی که الگوریتم تشخیص ۴ دی ماه گذشته نتوانست لهجه منطقه و نشست الگوریتمی در ارتباط با فرد را به درستی پیاده‌سازی کند و در نهایت ۲۸ نفر از مردم نام دانشگاه‌های کوچکی را از دست دادند.

برنامه دیتامین بانکداری دیجیتال ایران

ناظران بخش بانکی ایران معتقدند که الگوریتم تصمیم‌گیری برای وام‌دهی باید بساده بررسی رعایت اخلاق هوش مصنوعی آن لزوماً اجرایی باشد. بیش از ۷۰ درصد از بانک‌های ایرانی در حال حاضر یک واحد قواعد اخلاقی برای AI دارند اما این واحد با درآمد داخلی و دیجیتال مواجه است. در آکادمی علوم مهندسی، متخصصان اخلاق به عنوان طراحان حیاتی این تغییرات دیده می‌شوند.

راه‌حل‌های قابل اجرا برای تصمیم‌گیرندگان کارآفرینی

استارت‌آپ داران در حال حاضر چه راهبردهایی باید را بکار ببرند احتیاج دارند که اخلاق در طراحیAI را فراموش نکنند؟ گروه بنکداران بررسی‌شده فکری را در اختیار نهادهای دولتی قرار داده که می‌تواند به کاهش ۱۶ درصدی تخلف‌های فناوریی کمک کند. این راهبردها شامل موضوعات زیر است:

  1. ساخت یک «لجنة اخلاق الگوریتمی» قبل از نسخه‌اینیشیال محصول
  2. توجه به حریم خصوصی اطلاعات در تمامی۴۳ مرحله توسعه سیستم
  3. شرکت در ۳ تا ۵ کارگاه فصلی با موضوع اهمیت اخلاق درAI

بر طبق برآورد سازمان‌های تخصصی، برنامه‌ای که از شبکه‌سازی بین طراحان تکنولوژی و سازمان‌های اخلاقی تشکیل شده است می‌تواند ۸۵ درصد ریسک تقلب هوش مصنوعی را در کشورهای در حال توسعه مانند ایران کاهش دهد. با این حال، فقط ۲۴ درصد از شرکت‌های میانه ایرانی از این مسیر آگاهی دارند.

چرا تشکیل کمیته خاص برای AI با اخلاق غیرقابل‌لغز است؟

هیچ شرکتی نمی‌تواند صددرصد اخلاق الگوریتمی به صورت درون‌زا مدیریت کند. دسترسی به هیئتی از جامعه مدنی با کارشناسان حقوق بشر و بانکداری دیجیتال ۲۷ نفره القاء می‌کند که سیستم‌ها را در معرض انتقادات بی‌طرفانه قرار دهد. این روند هزینه را ۴۰ درصد کاهش داده است.

چگونه جامعه می‌‌تواند اخلاق AI را بررسی کند؟

مبارزه با فقر عالمی و نابرابری‌های سیستمی ایستادگی در برابر خودکارهای «فاسد» آغاز شده‌است. چند سازمان برجسته ایرانی، از جمله مرکز فرهنگی پژوهشی اخلاق دانش، می‌گویند عامه مردم باید با شرایط پیش از انتشار نرم‌افزارهای هوش مصنوعی آشنا شوند. داخلی این امکان از طریق افزایش اعتماد عمومی به الگوریتم‌های دولتی ایجاد می‌گردد.

  • نرم‌افزار قابل بازبینی مردمی تشکیل شده توسط دانشگاه امیرکبیر و مرکز ملی توسعه
  • کارگاه تقویت مشارکت مردمی در سیاست‌های AI در آموزش و پرورش مناطق حاشیه
  • انجام تست عمومی برای سنجش «نرمالی» استخدام AI در مؤسسات آموزشی ایران

مثال تهاجمی که عالمان AI را راهنمایی می‌کند

استکهلم یکی از مدل‌های حقوقی حمایت‌کننده هوش مصنوعی اخلاقی است. در دوره‌های اخیر سازمانی‌سازی این دیدگاه، کارآمدیAI نظارتی بهتری ایجاد شده و بودجه سالیانه بررسی‌ها به ۱/۸ میلیون یورو در سال رسیده است. این مدل می‌تواند برای کشورهایی مانند إیران الهام‌بخش باشد.

استفاده از قواعد اخلاقی در همه بخش‌های تولید محصولات هوشمند، راهی پایدارتر برای جهش فناورانه بدون تهدید است. باید منتظر نشستن اشتباهات بزرگ نباشیم و ارتقاء اخلاق در هوش مصنوعی استانداردهای جامعه‌ای است که امروز غفلت از آن، فرداای را نابود خواهد کرد. دعوت به عمل: به دانش آتی پس از اخلاق توجه کنید و سیستم خود را امین باور کنید.

چرا اخلاق هوش مصنوعی راهنمای صنعتی قرن بیست و یکم است؟

گرچه بسیاری از توسعه‌دهندگان AI تمرکزشان را بر عملکرد و سرعت مدل قرار داده‌اند، به یاری اخلاق صنعتی این پازل به جای کامل می‌شود. اقلامیات خارجی در سال گذشته تا ۳۳ برابر در معرض سوءاستفاده‌های الگوریتمی بودند، ولی با اتخدام فیلسوفان به چشم اخلاق‌دانش ۲/۲ میلیون دلار در مجموعه‌های خدماتی صرفه‌جویی شده است.

بسترهای انسانی و فرهنگی در قانون هوشمند

برطبق مطالعه ای انجام شده در دانشگاه شهیدبهشتی، ۵۷ درصد از شهروندان ایرانی به مدل‌هایی اخلاقی هوش مصنوعی اعتماد می‌کنند. این امیدوارکننده است چون می‌تواند به جلب اعتماد سرمایه‌گذاران خارجی کمک کند. با این حال، فرهنگ غربی در ساختار قواعد اخلاق AI مشکلی را ایجاد کرده است.

چکیده بحث و دعوت به مشارکت جامعه فناور

از باب تحقق قيمت RFID هوشمند در صنعت درجة نگهداری بهداشتی تا تصمیم‌گیری‌های های هوش مصنوعی در ساختار کلان منطقه‌ای بستر باید معماری اخلاقی داشته باشد. اخلاق در هونز مصنوعی امروزه نه تنها یک مجموعه قواعد، بلکه یک ضرورت بقا است. مهمتر از همه، این سوال باقی است: آیا ما واقعاً می‌توانیم بیشتر از قبل، قبل از تکثیر ضررها تمرکز درستی داشته باشیم؟

  • دانلود راهنمای اخلاق هوش مصنوعی سازمان ایزو برای راه‌اندازهای اقتصادی
  • شرکت در کارگاه «تَن منصفانه الگوریتم» به همت انجمن کارشناسان اخلاق دانشجویی
  • کنفرانس سالانه فناوری بدون تعصب که در استانداردهای قانونی فاز REST قرار گرفته است.

ادامه مطلب
برای افزودن دیدگاه کلیک کنید

یک پاسخ بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *