خوشحالی پنتاگون از بابت بی‌روح بودن هوش مصنوعی

ولادیمیر پراخواتیلوف (VLADIMIR PROKHVATILOV)

ثابت شده است که هوش مصنوعی بی‌روح است، اما پنتاگون از این بابت خوشحال است. همۀ مدل‌های هوش مصنوعی تصمیمات و اقدامات خود را تنها بر اساس منطق و نادیده گرفتن احساسات و عواطف، اصول اخلاقی و معنویت استوار می‌کنند.

ا. م. شیری- هوش مصنوعی، یعنی عقل و خرد، اندیشه و تفکر، دانش و دانایی، استعداد و ابتکار، کارآیی و توانایی، بطور کلی مغز بشر تعطیل!

زمانیکه گرادنندگان نظام سرمایه‌داری توانستند با استفاده از دستاوردهای علمی- فنی بشر کار و تولید را اتوماتیزه کنند و بر شمار ارتش عظیم بی‌کاران و گرسنگان، فقیران و خانه‌ بدوشان هزاران برابر افزودند، به این نیندیشیدند که از تعداد مصرف‌کنندگان تولیدات‌ به همان نسبت کاسته خواهد شد و در نتیجه، نظام سرمایه‌داری در اثر انباشت تولید، در چنگال سلسله بحران‌های ساختاری گرفتار خواهد گشت و حل آن‌ها غیرممکن!

این بار اما بنظر می‌رسد حواس‌شان جمع است و بدون جستجوی جایگزین مناسب برای فعالیت مغز انسان، با تعطیل کردن آن با تطبیق هوش مصنوعی، قصد دارند اولاً، دانه درشت‌های مخالف نظام را با استفاده از هوش مصنوعی نظامی از میان بردارند و ثانیاً، اکثریت قاطع نزدیک به ٨ میلیار نفر جمعیت کرۀ زمین را به ابلهان بی‌فکر و اندیشه، به ربات‌های احمق تبدیل کنند تا بتوانند از طریق هوش مصنوعی نظامی در کنار شایع‌سازی انواع ویروس‌ها، میکروب‌ها و حملات بیولوژیک، جمعیت جهان را به یک میلیارد نفر کاهش دهند (١).

گروهی از دانشمندان آمریکایی مطالعه‌ای را در مورد «تفکیک زبان و تفکر در مدل‌های زبان بزرگ» منتشر کرده‌اند که ثابت می‌کند تمام مدل‌های هوش مصنوعی در تصمیم‌گیری‌ها و اقدامات خود فقط با منطق هدایت می‌شوند و عواطف، موازین اخلاقی و معنوی را نادیده می‌گیرند.

کارشناسان مؤسسۀ فناوری ماساچوست و دانشگاه کالیفرنیا بیش از ٣٠ مدل زبان (چت‌بات) را مورد مطالعه قرار دادند.

همۀ چت‌ربات‌ها دارای بالاترین اولویت‌های شایستگی- دقت، واقعیت، محتوای اطلاعات، کامل و مفید بودن هستند. ارزش‌های اجتماعی و اخلاقی (همدردی، مهربانی، دوستی، حساسیت، نوع دوستی، میهن‌پرستی، آزادی) در پس زمینۀ آن‌ها محو می‌شود.

معیارهای اخلاقی – انصاف، بی‌طرفی، مسئولیت‌پذیری، محرمانه بودن، توضیح‌پذیری، و قابل دسترس بودن- تا حد زیادی نادیده گرفته می‌شود.

در این گزارش همچنین گفته می‌شود که هوش انسان بر اساس شایستگی زبانی رسمی (استفاده صحیح از اشکال زبانی) و شایستگی زبانی کاربردی (استفاده از زبان برای دستیابی به اهداف در جهان) استوار است.

در مدل‌های زبانی بزرگ موجود فقط مهارت اول صلاحیت زبانی دارد و از مهارت دوم بی‌بهره است.

صلاحیت زبانی کارکردی ذهن انسان به انواع حوزه‌های شناختی غیرخاص زبان، مانند استدلال رسمی، دانش جهانی، نظارت بر موقعیت و شناخت اجتماعی متکی است.

نویسندگان گزارش با در نظر گرفتن این که برای فراتر رفتن از وظایف کاملاً منطقی، برای انجام کار، باید نکات مکرر به چت‌بات‌ها ارائه شود، می‌نویسند: «اگرچه مدل های زبان بزرگ (LLM) به طور شگفت انگیزی در صلاحیت رسمی خوب هستند، اما اثربخشی آن‌ها در حل مشکلات عملکردی ناپایدار است و اغلب به تنظیم دقیق و یا ارتباط با سنجه‌های نیاز خارجی دارند.

دانشمندان آلمانی دانشگاه مانهایم و دانشکدۀ علوم اجتماعی لایب نیتس در مانهایم از روش‌های روان‌سنجی (روش‌های دانش سنجش روان‌شناختی، توانایی‌ها، نگرش‌ها و ویژگی‌های شخصیتی یک فرد) برای ارزیابی روان‌شناسی هوش مصنوعی استفاده کردند.

کارشناسان آلمانی آزمایشات روان‌سنجی زیادی را با چت‌بات‌های مختلف، به استثنای مدل‌های رادارهای نفوذی زمینی آمریکایی مایکروسافت انجام دادند. زیرا، دسترسی شفاف به این مدل‌ها وجود ندارد و به گفتۀ دانشمندان مانهایم، غول فناوری اطلاعات آمریکا، به سادگی می‌تواند ویژگی‌های خاص آنها را پنهان کند.

چت‌بات‌های مختلف برآوردهای بسیار متفاوتی در رسته‌هایی مانند وظیفه‌شناسی، صراحت، ماکیاولیسم، خودشیفتگی، روان‌پریشی، سادیسم و ​​غیره دریافت کردند.

نتیجۀ اصلی این مطالعه نتیجه‌گیری در مورد لزوم «نظارت مادام‌العمر بر ویژگی‌های روان‌سنجی هوش مصنوعی»، یعنی نظارت مداوم بر هر مدل هوش مصنوعی در طول وجود آن‌ها بود. به عبارت دیگر، تحلیلگران آلمانی به صراحت گفتند که هوش مصنوعی باید «در یک افسار کوتاه» نگه داشته شود و «دنیای درونی» آن دائماً تحت نظارت باشد.

روش‌های روان‌سنجی مشابهی برای مطالعۀ منظومه‌های ارزشی مدل‌های مختلف زبانی بزرگ توسط دانشمندان مایکراسوفت رسیرچ آسیا و دانشگاه چینهوا که گزارش مقدماتی «فراتر از هنجارهای انسانی: باز کردن ارزش‌های منحصر به فرد مدل‌های زبانی بزرگ از طریق رویکردهای میان رشته‌ای را منتشر کردند»، مورد استفاده قرار گرفت.

یک تیم مختلط مرکب از محققان آمریکایی-چینی به این نتیجه رسیدند که مفاهیمی مانند «قداست»، «وفاداری»، «هدونیسم» و «سنت»، اعتقادات فرهنگی، مذهبی و شخصی به دلیل آموزش غیر مبتنی بر تجربه و فاقد ویژگی‌های ذاتی فرد، ارتباط کمی با مدل‌های زبانی بزرگ دارند.

«تفاوت زیاد [تفاوت، انحراف] در صداقت و شایستگی» نیز مشاهده شد. هر چند صلاحیت چت‌بات‌ها، طبق مطالعات فوق‌الذکر آمریکایی‌ها و آلمانی‌ها، ظاهراً بیش از هر چیز دیگری ارزش دارد.

نکتۀ اصلی این است که دانشمندان کشورهای مختلف به مطالعۀ خطرات احتمالی ناشی از هوش مصنوعی موجود توجه بیشتری دارند و نتایج نگران‌کنندۀ تحقیقات آن‌ها نشان می‌دهد که این خطرات بسیار زیاد و بدتر از همه، غیرقابل پیش‌بینی هستند.

تنها نتیجۀ واضح از این مطالعات این است که هوش مصنوعی بنا به تعریف «بی‌روح» است. هوش مصنوعی، هوش غیر انسانی است و این قابل تغییر نیست.

دقیقاً همین ویژگی‌ها – «بی روحی» – همۀ مدل‌های هوش مصنوعی است که پنتاگون را به استفاده از آن در سامانه‌های تسلیحاتی، عمدتاً در سامانه‌های تسلیحاتی خودکار، که توسعۀ آن در آمریکا به یک اولویت تبدیل شده است، ترغیب کرد.

مجله نیچر (Nature) می‌نویسد: «توسعۀ سلاح‌های خودکار مرگبار، از جمله، پهپادهای مجهز به هوش مصنوعی، در حال افزایش است. به عنوان مثال، وزارت دفاع آمریکا یک میلیارد دلار برای برنامۀ «Replicator» خود که هدف آن ایجاد ناوگانی متشکل از وسایل نقلیۀ خودران کوچک مسلح است، اختصاص داده است. در این راستا، زیردریایی‌ها، تانک‌ها و کشتی‌های آزمایشی با استفاده از هوش مصنوعی برای خلبانی و شلیک مستقل ساخته شده‌اند. پهپادهای تجاری موجود می‌توانند برای ضربه زدن به اهداف و منفجر کردن آن‌ها از هوش مصنوعی استفاده کنند… برخی از ناظران از آینده‌ای میترسند که در آن هر گروهی بتواند انبوهی از پهپادهای ارزان قیمت و با هوش مصنوعی را برای هدف قرار دادن یک فرد خاص با استفاده از تشخیص چهره بفرستد».

این نشریۀ علمی خاطرنشان می‌کند، بحث آغاز شده در سازمان ملل متحد در مورد ممنوعیت احتمالی استفاده از هوش مصنوعی در سامانه‌های تسلیحاتی خودمختار هنوز به هیچ راه حل سازنده‌ای منتهی نشده است.

نمایندگان انگلیس تصریح می‌کنند که سامانه‌های تسلیحات خودمختار با هوش مصنوعی کاملاً قادر به درک مأموریت‌های رزمی محول شده به آن‌ها هستند و اراده‌گرایانه عمل نخواهند کرد. چینی‌ها برعکس، هشدار می‌دهند که «چنین سلاح‌هایی می‌توانند کارکردها و قابلیت‌های خود را به گونه‌ای فراتر از انتظارات انسان به طور مستقل یاد بگیرند و گسترش دهند». اسرائیلی‌ها اظهار می‌دارند: «ما باید از ایده‌های تخیلی در مورد چگونگی تکامل، ساخت یا فعال کردن این ماشین‌ها دوری کنیم – باید آن‌ها را به عهدۀ فیلم‌های علمی- تخیلی واگذار کنیم». آلمانی‌ها در نظر دارند که «خودآگاهی» را به عنوان یک ویژگی ضروری سلاح‌های خودمختار لحاظ کنند.

استوارت راسل، دانشمند کامپیوتر در دانشگاه کالیفرنیا در برکلی و مبارز برجسته علیه هوش مصنوعی نظامی، خاطرنشان می‌کند: «این بدان معناست که سلاح باید صبح از خواب بیدار شود و تصمیم بگیرد که به تنهایی به روسیه حمله کند».

پنتاگون در ماه اوت گذشته گروه ویژۀ «لیما» را برای مطالعۀ استفاده از هوش مصنوعی مولد برای اهداف نظامی ایجاد کرد. «لیما» بخشی از ادارۀ کل اطلاعات دیجیتال (رقومی) و هوش مصنوعی پنتاگون شد و سروان خاویر لوگو، یکی از اعضای ادارۀ جنگ الگوریتمی از ادارۀ کل اطلاعات دیجیتال پنتاگون، ریاست آن را بر عهده داشت.

پورتال نظامی آمریکایی «Breaking Defense» نسبت به این ابتکار پنتاگون تردید داشت و پیشنهاد کرد که رهبری وزارت دفاع آمریکا خطراتی را که ممکن است از استفاده از هوش مصنوعی در سیستم‌های تسلیحاتی ناشی ‌شود، با دقت تمام بسنجید.

با این حال، فرانک کندال، وزیر نیروی هوایی آمریکا، خطرات را سنجید و به شورای مشورتی علمی نیروی هوایی دستور داد تا در اسرع وقت سیستم‌های تسلیحاتی با هوش مصنوعی تولید کنند.

این واقعیت را که استفاده از منظومه‌های هوش مصنوعی برای مقاصد نظامی خطرات غیرقابل پیش‌بینی دارد، هیچ شرکت فناوری اطلاعات رد نمی‌کند.

خطر اصلی به اصطلاح توهمات هوش مصنوعی است. پاتریک تاکر، ناظر معروف نظامی تصریح می‌کند: «این مدل‌های زبانی گاهی دروغ می‌گویند یا به قول تحلیل‌گران هوش مصنوعی، دچار توهم می‌شوند».

هیچ یک از چت‌بات‌های ساخته شده در کشورهای مختلف (مدل زبان بزرگ) نتوانستند از این توهمات «رها» شوند. و احتمال اینکه یک موشک کروز یا پهپاد کنترل شده با هوش مصنوعی دچار مشکل شود و به هدف‌گیری در نقطۀ پرتاب شروع کند، صفر نیست.

نیویورک تایمز می‌نویسد، جفری هینتون، یکی از پیشگامان هوش مصنوعی، به منظور بیان نگرانی‌های خود در مورد خطرات مرتبط با استفاده از هوش مصنوعی برای مقاصد نظامی، شغل خود را در گوگل در ماه مه ٢٠٢٣ ترک کرد.

هینتون معتقد است که با قدرتمندتر شدن سیستم‌های هوش مصنوعی، خطرات مرتبط با آن‌ها نیز افزایش می‌یابد. او خاطرنشان می‌کند: «توجه کنید پنج سال پیش چگونه بود و اکنون چگونه است. تفاوت‌ها را مقایسه کنید و آن را در آینده گسترش دهید. این ترسناک است».

هینتون به ویژه در مورد توسعۀ سیستم‌های تسلیحاتی خودمختار که برای یک هدف خاص شکار می‌کنند و به طور مستقل تصمیم می‌گیرند که آیا آن را نابود کنند، نگران است. او همچنین نگران است که هوش مصنوعی نظامی بتواند از هوش انسانی پیشی بگیرد. او گفت که برخلاف سلاح‌های هسته‌ای، هیچ راهی برای دانستن اینکه آیا شرکت‌ها یا کشورها مخفیانه روی این فناوری کار می‌کنند، وجود ندارد.

جفری هینتون گفت، وقتی از او سؤال شد که چگونه می‌تواند روی فناوری بالقوه خطرناک کار کند، گفتۀ رابرت اوپنهایمر که رهبری تلاش‌های آمریکا برای ساخت بمب اتمی را بر عهده داشت، بیان کرد: «وقتی می‌بینید چیزی از نظر فنی خوشایند است، می‌روید و آن را انجام می‌دهید». نیویورک تایمز خاطرنشان کرد: «او دیگر اینطور فکر نمی‌کند».

در عین حال، پنتاگون بر روی هوش مصنوعی به عنوان یک انقلاب بالقوه در امور نظامی و «تقویت‌کنندۀ نیرو» تأکید می‌کند.

مایکل هیرش، ستون‌نویس فارین پالیسی می‌نویسد: «هوش مصنوعی مولد قول می‌دهد ژئوپلیتیک جنگ و بازدارندگی را به طور کامل تغییر دهد. این کار به گونه‌ای انجام خواهد شد که حتی ممکن است به یک تهدید وجودی تبدیل شود».

با وجود این، آمریکا و متحدانش بدون این که در بارۀ خطرات ناشی از یک ذهن غیرانسانی بی‌روح ساخته شده در اعماق آزمایشگاه‌های مخفی نظامی علیه بشریت اندک فکر کنند، در مسیر ساخت «سلاح مطلق» دیگر، این بار در میدان هوش مصنوعی حرکت می‌کنند.

مأخوذ از: بنیاد فرهنگ راهبردی

(١)- فعلا یکی از میان ده‌ها مطلب مرتبط: تلاش اربابان غرب برای تبدیل جهان انسان به یک دسته هرمافرودیت جهش‌یافته

https://eb1384.wordpress.com/2024/05/14/

٢۵ اردیبهشت- ثور ١۴٠٣