هوش مصنوعی
اهمیت اخلاق در هوش مصنوعی در دنیای امروز چرا بیشتر از همیشه است؟

داغ ترین چالش هوش مصنوعی در عصر دیجیتال
با رشدی چشمگیر در بازارهای تکنولوژیی سالانه که ۲۸ درصد نمو دارد، هوش مصنوعی کاربردهایش را از پزشکی سرزدیم تا تصمیمگیریهای قضایی گسترش یافته است. اما این سوال اساسی مطرح است: چگونه مطمئن شویم که ۲.۳ میلیارد دلاری که ایران در سال ۱۴۰۲ برای توسعه AI سرمایهگذاری کرده است، از معیارهای اخلاق هوش مصنوعی پیروی میکند؟
تاریخچه سفر غیرقابل بازگشت به کاربردهای широко
- دستیاران مجازی در سال ۱۳۹۵: کاربردهای محدود به ترجمه و تایید هویت
- آزمایشگاههای داروسازی ایران در سال ۱۴۰۰: استفاده از AI در توسعه داروهای متخصصه
- سال قبل، ۴۱ درصد از شرکتهای دانشبنیان ایرانی: استفاده از الگوریتمها برای استخدام یا وامدهی
چه کسی از اخلاق هوش مصنوعی امروز متضرر میشود؟
در سیستم پخش ویدئوهای یکی از پلتفرمهای مطرح ایرانی، الگوریتم تبلیغاتی در سال گذشته چندین بار نژادپرستانه عمل کرد. این موضوع نشان میدهد که فراموش کردن اخلاق هوش مصنوعی میتواند هم به افراد و هم به سازمانها ضرر جبرانناپذیری وارد کند. سازمان ملل پیشنهاد کرده است که ۳۰ درصد از منابع تحقیقاتی AI در خاورمیانه به بحثهای اخلاقی اختصاص یابد، اما آیا دانشجویان رشته کامپیوتر ایران این سهم را دارند؟
داستان دانشجوی موفقی که قربانی الگوریتم شد
احمدرضا، دانشجوی دکتری ایرانی، کارآموزی خود را در شرکتی خارجی از دست داد زیرا الگوریتم ارزیابیاش با دادههای قدیمی مواجه با سیاهههای منطقهای آموزش دیده بود. این مثال نشان میدهد که نبود اخلاق در هوش مصنوعی میتواند فرصتهای شغلی را از فرد سلب کند. شرکت طراح، بعد از قرار گرفتن در لیست سیاه سازمان رقابتهای بدون تعصب، باید چهارمیلیون دلار برای اصلاح الگوریتم هزینه کرد.
چکیده سرمایهگذاریهای آتی بدون اخلاقیات
در سال ۱۴۰۳، بیش از ۱۷۰ شرکت ایرانی در زمینه تشخیص چهره فعالیت داشتند. اما ۶۵ درصد آنها دارای استانداردهای اخلاق در هوش مصنوعی نبودند. کاربردهایی مانند رصد کارمندان بهصورت پنهان یا فیلتر کردن جمعیت اقوام خاص میتواند عواقب حقوقی و اخلاقی هنگفتی دربر داشته باشد. نهادهای بینالمللی مانند UNESCO در سال ۲۰۲۲ اقدامات شدیدی نسبت به کشورهایی که والوی کمی به اخلاق در هوش مصنوعی میدهند، آغاز کردند.
جایگاه اخلاق در هوش مصنوعی در سیاستهای ملی تکنولوژی
در دی ماه ۱۴۰۲، وزیر ارتباطات ایران در گرد همایی وزرای علوم خاورمیانه اقدام به ارائه نقشه راه مشترک برای استفاده از فناوریهای خودکار با اخلاق کرد. این برنامه شامل قوانین مربوط به حفظ حریم خصوصی کاربران در سطح فناوریهای هوشمند، همگامی تشخیص هویت با نیازهای بینالمللی، و ترتیب مجازات در صورت تخطی از استانداردهای قواعد اخلاق است.
- قانون مصوبه جدید وزارت ارتباطات: کلیهی الگوریتمهای قابلیت توضیحپذیریشان را باید در اختیار عموم بگذارند.
- دستورالعمل بانک مرکزی ایران: هر بانکی که برای اعطای وامها از AI فاقد اخلاق هوش مصنوعی استفاده کند، شاهراه دسترسی به منابع بینالمللی را از دست میدهد.
موافقتنامه پانجمین کنفرانس توسعه پایدار در تهران
در آغاز فصل تابستان سال ۱۴۰۳، ۳۲ کشور شرکت استارتآپهای خود را از استفاده از قانون ۳S (Standardization, Security, Sweetness) آگاه کردند. این مبدأ قواعد اخلاق هوش مصنوعی را در سطح شبکههای اجتماعی به دقت تعقیب میکند. در سپهر داخلی، ۱/۱ میلیون کاربر روزانه اینترنت اجتماعی شاهد تغییراتی با محوریت اخلاق در هوش مصنوعی شدهاند، از جمله حذف خودکار دادههای حساس در گفتوگوهای رباتیک.
آیندهای بدون تعصب در الگوریتمهای هوشمند
ویتو شد! طراحی یک ربات مصاحبه در داخل شخصیسازی شده با تکنولوژی تشخیص صدا باعث تشکیل فوریتسازی کاربردهای هوش مصنوعی در رکنهای «عدم تبعیض» و «عدالت اجتماعی» شده است. اهمیت اخلاق هوش مصنوعی در اینجا برجستگی مییابد زمانی که الگوریتم تشخیص ۴ دی ماه گذشته نتوانست لهجه منطقه و نشست الگوریتمی در ارتباط با فرد را به درستی پیادهسازی کند و در نهایت ۲۸ نفر از مردم نام دانشگاههای کوچکی را از دست دادند.
برنامه دیتامین بانکداری دیجیتال ایران
ناظران بخش بانکی ایران معتقدند که الگوریتم تصمیمگیری برای وامدهی باید بساده بررسی رعایت اخلاق هوش مصنوعی آن لزوماً اجرایی باشد. بیش از ۷۰ درصد از بانکهای ایرانی در حال حاضر یک واحد قواعد اخلاقی برای AI دارند اما این واحد با درآمد داخلی و دیجیتال مواجه است. در آکادمی علوم مهندسی، متخصصان اخلاق به عنوان طراحان حیاتی این تغییرات دیده میشوند.
راهحلهای قابل اجرا برای تصمیمگیرندگان کارآفرینی
استارتآپ داران در حال حاضر چه راهبردهایی باید را بکار ببرند احتیاج دارند که اخلاق در طراحیAI را فراموش نکنند؟ گروه بنکداران بررسیشده فکری را در اختیار نهادهای دولتی قرار داده که میتواند به کاهش ۱۶ درصدی تخلفهای فناوریی کمک کند. این راهبردها شامل موضوعات زیر است:
- ساخت یک «لجنة اخلاق الگوریتمی» قبل از نسخهاینیشیال محصول
- توجه به حریم خصوصی اطلاعات در تمامی۴۳ مرحله توسعه سیستم
- شرکت در ۳ تا ۵ کارگاه فصلی با موضوع اهمیت اخلاق درAI
بر طبق برآورد سازمانهای تخصصی، برنامهای که از شبکهسازی بین طراحان تکنولوژی و سازمانهای اخلاقی تشکیل شده است میتواند ۸۵ درصد ریسک تقلب هوش مصنوعی را در کشورهای در حال توسعه مانند ایران کاهش دهد. با این حال، فقط ۲۴ درصد از شرکتهای میانه ایرانی از این مسیر آگاهی دارند.
چرا تشکیل کمیته خاص برای AI با اخلاق غیرقابللغز است؟
هیچ شرکتی نمیتواند صددرصد اخلاق الگوریتمی به صورت درونزا مدیریت کند. دسترسی به هیئتی از جامعه مدنی با کارشناسان حقوق بشر و بانکداری دیجیتال ۲۷ نفره القاء میکند که سیستمها را در معرض انتقادات بیطرفانه قرار دهد. این روند هزینه را ۴۰ درصد کاهش داده است.
چگونه جامعه میتواند اخلاق AI را بررسی کند؟
مبارزه با فقر عالمی و نابرابریهای سیستمی ایستادگی در برابر خودکارهای «فاسد» آغاز شدهاست. چند سازمان برجسته ایرانی، از جمله مرکز فرهنگی پژوهشی اخلاق دانش، میگویند عامه مردم باید با شرایط پیش از انتشار نرمافزارهای هوش مصنوعی آشنا شوند. داخلی این امکان از طریق افزایش اعتماد عمومی به الگوریتمهای دولتی ایجاد میگردد.
- نرمافزار قابل بازبینی مردمی تشکیل شده توسط دانشگاه امیرکبیر و مرکز ملی توسعه
- کارگاه تقویت مشارکت مردمی در سیاستهای AI در آموزش و پرورش مناطق حاشیه
- انجام تست عمومی برای سنجش «نرمالی» استخدام AI در مؤسسات آموزشی ایران
مثال تهاجمی که عالمان AI را راهنمایی میکند
استکهلم یکی از مدلهای حقوقی حمایتکننده هوش مصنوعی اخلاقی است. در دورههای اخیر سازمانیسازی این دیدگاه، کارآمدیAI نظارتی بهتری ایجاد شده و بودجه سالیانه بررسیها به ۱/۸ میلیون یورو در سال رسیده است. این مدل میتواند برای کشورهایی مانند إیران الهامبخش باشد.
استفاده از قواعد اخلاقی در همه بخشهای تولید محصولات هوشمند، راهی پایدارتر برای جهش فناورانه بدون تهدید است. باید منتظر نشستن اشتباهات بزرگ نباشیم و ارتقاء اخلاق در هوش مصنوعی استانداردهای جامعهای است که امروز غفلت از آن، فرداای را نابود خواهد کرد. دعوت به عمل: به دانش آتی پس از اخلاق توجه کنید و سیستم خود را امین باور کنید.
چرا اخلاق هوش مصنوعی راهنمای صنعتی قرن بیست و یکم است؟
گرچه بسیاری از توسعهدهندگان AI تمرکزشان را بر عملکرد و سرعت مدل قرار دادهاند، به یاری اخلاق صنعتی این پازل به جای کامل میشود. اقلامیات خارجی در سال گذشته تا ۳۳ برابر در معرض سوءاستفادههای الگوریتمی بودند، ولی با اتخدام فیلسوفان به چشم اخلاقدانش ۲/۲ میلیون دلار در مجموعههای خدماتی صرفهجویی شده است.
بسترهای انسانی و فرهنگی در قانون هوشمند
برطبق مطالعه ای انجام شده در دانشگاه شهیدبهشتی، ۵۷ درصد از شهروندان ایرانی به مدلهایی اخلاقی هوش مصنوعی اعتماد میکنند. این امیدوارکننده است چون میتواند به جلب اعتماد سرمایهگذاران خارجی کمک کند. با این حال، فرهنگ غربی در ساختار قواعد اخلاق AI مشکلی را ایجاد کرده است.
چکیده بحث و دعوت به مشارکت جامعه فناور
از باب تحقق قيمت RFID هوشمند در صنعت درجة نگهداری بهداشتی تا تصمیمگیریهای های هوش مصنوعی در ساختار کلان منطقهای بستر باید معماری اخلاقی داشته باشد. اخلاق در هونز مصنوعی امروزه نه تنها یک مجموعه قواعد، بلکه یک ضرورت بقا است. مهمتر از همه، این سوال باقی است: آیا ما واقعاً میتوانیم بیشتر از قبل، قبل از تکثیر ضررها تمرکز درستی داشته باشیم؟
- دانلود راهنمای اخلاق هوش مصنوعی سازمان ایزو برای راهاندازهای اقتصادی
- شرکت در کارگاه «تَن منصفانه الگوریتم» به همت انجمن کارشناسان اخلاق دانشجویی
- کنفرانس سالانه فناوری بدون تعصب که در استانداردهای قانونی فاز REST قرار گرفته است.