هوش مصنوعی
چگونه یک اشتباه هوش مصنوعیی دهه ۱۹۵۰ هنوز فناوری ۲۰۲۵ را تحت تأثیر قرار میدهد؟

مقدمه: اشتباههای تاریخی میتوانند آینده را تغییر دهند
در سال ۲۰۲۵، دنیای تکنولوژی با چالشهای اساسی در زمینه اخلاق هوش مصنوعی، امنیت دادهها و تعامل بین انسان و ماشین مواجه است. اما منشأ این مشکلات به دورانی برمیگردد که هوش مصنوعی تنها یک رویای علمی معروض بود: دهه ۱۹۵۰. یک اشتباه هوش مصنوعی فراموشنشدنی که توسط صاحبنظران اولیه این حوزه انجام شد، هنوز نه تنها آینده تکنولوژی را هدایت میکند، بلکه راهکارهای زیادی برای اصلاح آن ارائه شده است. در این مقاله به بررسی این موضوع میپردازیم و نشان خواهیم داد چگونه ضعف در درک ابعاد احساسی و فلسفی دادهها در سالهای نخستین توسعه هوش مصنوعی، در ساختارهای امروزی اینترنت، رباتها و سیستمهای خودکار حافظه بشر را هم زده است.
ردپای اشتباه هوش مصنوعی در منشور دارتموث
تأسیس هوش مصنوعی در میان برجامبهای بینظام
در سال ۱۹۵۶، کنفرانس معروف دارتموث توسط جان مککارتی، آرون مارکی و دیگران به عنوان نقطه شروع رسمی سیستمهای هوشمند شناخته میشود. با این حال، بزرگترین اشتباه هوش مصنوعی اینجا رخ داد: تمرکز انحصاری بر روی یادگیری منطقی، بدون در نظر گرفتن تبعات اخلاقی، اجتماعی و ادراکی. این حساسیتها در سالهای بعد در طراحی هوشهای زنجیرهای دارای الگوریتم تکراری به طور کامل فراموش شدند و ر埸های آسیبهای فناوری کنونی را آشکار کرد.
جریان کاهش هوش به صرفاً محاسبه
به گفته محققان تاریخ حوزه اینترنت، اولین مرحله اشتباه هوش مصنوعی به این شکل بود که غربیها هوش را معادل یادگیری اعداد و منطق دانستند، حتی در حالی که دانشمندان شرقی در همان زمان به ابعاد فلسفی این فناوری میپرداختند. این رویکرد باعث شکلگیری سیستمهایی شد که بیش از حد «سرمایهای» در نظر گرفته شدند و در نهایت راه را به شکاف اجتماعی و اخلاقی باز کردند.
چراغ قرمز فراموشنشده
تشدید مشکلات امنیتی
با رشد سریع هوش مصنوعی در سالهای ۸۰ و ۹۰ میلادی، فراموشی نکات بنیادی توسط جامعه تکنولوژی، از جمله کیفیت داده و عدم حمایت از حریم خصوصی، با چند دهه تأخیر عواقب شدیدی برای ایران و جهان رقم زد. دادههای کاربران در بانکها و خدمات بهداشتی به شکل غیرقابلکنترل توسط سیستمهای خودکار استفاده شدند، که شروعی برای مشکلات فعلی هوشهای داده محور شد.
- بروز بیش از ۲٫۶ میلیون مورد از سرقت دادههای هوش مصنوعی در سال ۲۰۲۴
- اهمیت روزافزون نیاز به معماری درون فدراسیونی دادهها
- نداشتن اولویت در استانداردهای اخلاقی در زمان طراحی اولیه سیستمها
درآمدهای اقتصادی و اشتباهات مخفی
رشد ادامه یافته بر قاعده بیراهه
گزارش جدید بانک مرکزی ایران نشان میدهد که عملکرد ضعیف سیستمهای هوش مصنوعی در زمینه تصمیمگیری کلان، هنوز تأثیرات اشتباه هوش مصنوعی دهه ۵۰ را نشان میدهد. طراحیهای ابتدایی، هوش را فقط یک دستیار «حسابگر» میدانستند، نه « bartender emotional» که باید تفاوت انسانیت را وارد معادله کند. این نگاه دو بعدی، امروزه هزینههای اجتماعی بالایی را برای کشورها رقم میزند.
نتایج اقتصادی پنهان
دانشمندان داده میگویند: «شاید تنها ۳۰ درصد از سرمایهگذاریها در زمینه هوش مصنوعی به خوبی هدایت شوند، چرا که ریشه اشتباهات در مدلهای تاریخی است. ما اکنون با ساختارهایی رو به رو هستیم که پیشبینی هیچ یک از این مشکلات را برنامهریزی نکردهبودند.»
درمان انتظار، تدریس مجدد تصمیمگیری
یافتههای اخیر نشان میدهند که استفاده از الگوریتمهای «چندهدفه» و ادغام نظرهای انسانی-اخلاقی در هوش مصنوعی بیشتر در حال رواج است. بسیاری از شرکتهای فناوری امروزی، از جمله اسراتِ ایرانی، تزریق استانداردهای اخلاق فلسفی داتسندهدیوانه سال ۱۹۵۰ را در برنامه خود قرار دادهاند. نوآوریهایی مانند هوش مصنوعی برای همراهی با بیماران سینهپهلو و رباتهای مشاورهای در زمینه اخلاق، تحت تأثیر تصمیمات نادرست اولیه قرار دارند.
- بروز مشکلات خاص در زمینه تلرانس
- کمتوجیهی برجسته نسبت به هوش با احساساتی
- وجود سیستمهای مبتنی بر مدلهای پیوندی دهه ۱۹۵۰
نتیجهگیری: باضدم درسهای تاریخ هوش مصنوعی
اشتباه هوش مصنوعی دهه ۱۹۵۰ به سادگی یک گذشته تاریخی نیست؛ این اشتباهات در ساختارهای ما بیقفلتر میمانند. ما، کاربران ایرانی، باید دوباره اخلاق و هوش انسان را در محور تکنولوژی قرار دهیم. در اینجا میتوانید با انتخاب رباتهای سازگار با اسلام و نیز استفاده از سرویسهای پایداری فناوری، گامهایی ابتدایی برای اصلاح این اشتباهها بردارید. بازآموزی هوش مصنوعی، در هر مهلت اقتصادی بسیار ذاتیتر از تصمیمات اولیه است!