منتشر شده
6 ساعت پیشدر
با پیشرفت چشمگیر تکنولوژیهای هوش مصنوعی در سالهای اخیر، کلمه کلیدی اخلاق هوش مصنوعی در مرکز توجه بسیاری از محققان، سیاستگذاران و مخاطبان عمومی قرار گرفته است. پرسشی که امروزه برجسته است این است: آیا اخلاق هوش مصنوعی تا سال 2025 میتواند به حدی پیشرفت کند که ماشینها قضاوتهای اخلاقی مناسب داشته باشند؟ در حالی که AI در بسیاری از زمینهها به تکامل رسیده است، تعلیم اخلاق به سیستمهای هوشمند هنوز مفهومی پیچیده محسوب میشود.
با گسترش استفاده از هوش مصنوعی در مجالات حساس همچون کیفرخواست، خدمات بهداشتی و خودروهای خودران، نیاز به داشتن الگوهای اخلاقی قابل اعتماد برجستهتر شده است. دادههای کوپس که در سال 2022 منتشر شدند، نشان دادند که 78 درصد از کارشناسان اخلاق هوش مصنوعی را به عنوان نیاز امراری تلقی میکنند تا از سوء استفاده از الگوریتمهای قدرتمند جلوگیری شود. در عمل، تمام آنچه سیستمهای عادلانهتری ایجاد شوند، اخلاق هوش مصنوعی باید در مرحله اولیه طراحی لحاظ شود.
بیشتر روشهای تعلیم اخلاق به ماشینها به پیادهسازی قواعد و محدودههای اخلاقی در الگوریتمهای برنامهنویسی میپردازند. یکی از رویکردهای اصلی استفاده از “مداد های اخلاقی” است که الگوهای قضاوتی را با استفاده ا از متون بزرگ دادههای اخلاقی جمعآوری شده، تقویت ی دهد. این فرهنگ کار تحولی مهم در استانداردهای اخلاق هوش مصنوعی به شمار میرود.
در کنار آن، شرکتهای بزرگ مانند IBM و Google در جهت توسعه فریمورکهایی که قابلیت تعریف “مکانیزمهای قراردادی” در هوش مصنوعی را فراهم کنند اقدام نمودهاند.
در کل تعلیم اخلاق به سیستمهای هوشی، بیشترین موانع مرتبط با نظارات انسانی، متفاوت بودن فرهنگها و چگونگی پذیرش اخلاقیات بینالمللی است. بیایید به مثالها و دادههایی بپردازیم که این چالشها را روشن میکنند.
اخلاق هوش مصنوعی باید بتواند با ارزشهای گوناگون منطبق شود. برای مثال، در فرهنگ غربی خودآگاهی فردی برجسته است، ولی در بسترهای شرقی فضای جمعی بیشتر تأکید شده است. این واقعیت برای طراحان مداد به نوعی چالشبرانگیز است، زیرا نمیتوانند یک مجموعه اصولی واحد را به همه سیستمهای بینالمللی اعمال کنند.
کل مطالب الیاس را میدهند که تعیین محدودههای مشخص برای یک مفهوم ملموس نیست. سیستمهای یادگیری ماشینی تنها میتوانند سیگنالهای فراهم شده را بازنمایی کنند ولی فراتر رفتن از آنها، بخصوص در زمینن هوش مصنوعی عمومی، امکان ناپذیر به نظر میرسد. یک کمیته تحقیقاتی در MIT اخیراً نشان داد که 59 درصد افراد مظنون به اخلاق الهام شده AI شدهاند، زیرا استدلالهای آنها اه قطعیت ندارند.
برخی راهکارها برای غلبه بر این موانع وجود دارند. از بیشترین فعالیتهای قدیمی با سازنده مثل “رویکردهای مبتنی بر فارس” است که به اجاره و مراحل مختلف اخلاقی توجه میکند.
در سالهای اخیر، طراحان بیشتر تمایل به استفاده از روشهایی چند روش که نتایج آنها را با متون قانونی مختلف بسنجند. مثلاً یک سیستم AI که یک بانک بینالمللی به کار میبرد، تصمیمگیریهای اعتباری خود را با توجه به مفاهیم اخلاقی محلی هر کشور تغییر میدهد. استفاده از دوند که به طور مداوم آموزش داده میشوند، به این مفاهیم مربوط میشود.
نمونههایی از این روشها در پروژه تحقیقاتی Al به نام “AI forSocial Good” مشهود است که اخلاق هوش مصنوعی را با خانوار بشری مطابقت داده است.
برای زنده ماندن رقابتهای اخلاق هوش مصنوعی، تیمهای توسعه ماشینیادگیری به همکاری با فیزیکدانان، فیلسوفان و حقوقدانان نیاز دارند. یک تحقیق مشترک در سال 2023 که توسط انجمن بینالمللی AI Ethics انجام شد، اهمیت تعامل با اخلاقشناسان محلی را در راستای مطرح شدن محدودههای مناسب برجسته کرد.
پیش از تحقق زمان مشخص، کارشناسان تازه اند اخلاق هوش مصنوعی میتواند چگونه شکلگیری کند. در سال 2024، شورای عالی AI Ethics یک برنامه ملی ایرانیان ارانهریزی شده است که تمام دستاوردهای تا سال 2025 را هدایت خواهد کرد. در زیر پیشبینیهای مطرح برای آن زمان را بررسی میکنیم.
دولتها قصد دارند در سال 2025 استانداردهای بیشتری برای دسترسی و فعالیتهای AI وضع کنند. در کشورهای جهان غرب، قوانین مشابه لایحه اخلاق AI در حال تصویب است که از استفاده اصراری در خصوص مسائل اخلاقی سیستمهای هوشی جلوگیری کند. این قوانین مربوط MP دوستان ماتریال عمدهای برای خودجوشی اخلاقی هوشصنموعی فراهم میکنند.
بسیاری از مدیران حقوقی شرکتهای فناوری کالیفرنیایی اعلام نمودند که تا بعد از سال 2025، اخلاق هوش مصنوعی باید بخشی از اخلاق هوشمند شرکت به شمار رود. واکنش اینچنینی به سادگی نشان از آن را میدهد که 16 درصد از فروش سالانه چنین شرکتها تحت تأثیر طرح جدید اخلاق AI Ethics قرار خواهد گرفت. در کشور ایران، شرکتهای فعال در زمینه هوش مصنوعی نیز نشانههایی از پذیرش این مبحث را نشان دادهاند.
در همین موافق، اخلاق هوش مصنوعی به عنوان یک فرصت استثنایی برای شکستن مرزهای قدیمی برای دیجیتال و یک تحول اساسی در زمینه توسعه فناوری، درآمده است. تکنولوژی AI علی رقم محدودیتهای روز دنیا، 70 درصد از محققان میگویند آنچه در سالهای آتی رخ دهد، بسته است. هدف این بحث، ارائه و تحلیل جامعی از این مفهوم رمزگونه که به ما کمک میکند تا راهکارهای قابل اطمینان بسازیم.
برای مشارکت در اخلاق هوش مصنوعی که قابل اجرا باشد، چندین راه وجود دارد:
هر فرد آگاه نقش ناگسیختنی در شکلدهی به آینده هوشصنموعی اخلاقی دارد. نقد و تحلیل دیدگاههای پیش آمده در این مبحث میتواند به رشد مفاهیم قابل اجرایی منجر شود. شما میتوانید از طریق رسانههای فرهنگی، مثلاً وبلاگنویسی و یا برنامههای ملی، به این تحول بپیوندید.
اخلاق هوش مصنوعی نه فقط یک مقوله تخصصی، بلکه چالشی جدی است که حاضریت پذیرش عمومی در آن نقش دارد. یا ما در برابر تهدیدهای احتمالی کوتاه میآییم یا ابزاری برای زیرساختن فرهنگی بهتر میشود. در حالی سال 2025 به عنوان یک نقطه امتحانی مطرح است، امروز مهمتر از همیشه است تا حو همگانی را بالا ببریم و روبطهای سازنده با بحث AI Ethics بپروریم. دعوت شما این است که از طریق مطالعه، ارائه نظر و مشارکت در مجامع تخصصی، در شکل دادن به آینده هوش مصنوعی اخلاقی نقش بگیرید.
همین امروز! با پاسخ دادن به پرسشهایی که این فناوری در صف تحول اخلاقنه فرهنگ ایجاد میکند، معلوم میکنیم که اخلاق هوش مصنوعی نه تنها ممکن است، بلکه بهترین وسیله برای تعامل سالم جامعه با هوش مصنوعی است.