عمومی

هوش مصنوعی از پینوکیو سبقت گرفت!

پیشرفت‌های هوش مصنوعی با یادگیری فریبکاری همراه شده و نگرانی‌های جدی امنیتی برای پژوهشگران این حوزه ایجاد کرده است. برخی از این سیستم‌ها حتی به مرحله‌ای رسیده‌اند که اطمینان به ایمنی آنها از آزمایشی به آزمایش بعدی دوام ندارد.

به گزارش ترندونی، به نقل از آنا؛ محققان نمونه‌هایی از سیستم‌های هوش مصنوعی را پیدا کردند که دورویی می‌کنند، بلوف می‌زنند و وانمود می‌کنند که انسان هستند و در هر بار آزمایش، رفتار خود را بر اساس شرایط تغییر می‌دهند. این سیستم‌ها می‌توانند در بازی‌های رومیزی انسان‌ها را فریب دهند، ساختار پروتئین‌ها را رمزگشایی کنند و مکالمه‌هایی قابل قبول داشته باشند، اما در این میان دانشمندان هشدار داده‌اند که سیستم‌های هوش مصنوعی همان طور که پیشرفته‌تر می‌شوند، فریبکارتر هم می‌شوند.

احساس امنیت کاذب

این تحلیل که توسط محققان موسسه فناوری ماساچوست (ام آی تی) انجام شده است، نمونه‌های گسترده‌ای از سیستم‌های هوش مصنوعی را شناسایی می‌کند که خیانتکار و بلوف‌زن هستند و تظاهر به انسان بودن می‌کنند. حتی یکی از این سیستم‌ها رفتار خود را در طول آزمایش‌های امنیتی به گونه‌ای تغییر داد که احساس امنیت کاذب ایجاد کرد و حسابرس‌ها را فریب داد.

پیتر پارک (Peter Park)، محقق ایمنی وجودی هوش مصنوعی در ام آی تی و نویسنده این تحقیق گفت: با پیشرفت قابلیت‌های فریبندۀ سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند جدی‌تر می‌شود.

پروژه آموزش فریبکاری

پس از آن که متا، مالک فیس‌بوک، برنامه‌ای به نام «سیسرو» را توسعه داد و متوجه شد این سیستم در بیشتر بازی‌های رومیزی محبوب جهان از جمله بازی مشهور «دیپلماسی» به کار رفته است پیتر پارک تحریک شد که درباره متا تحقیق و تفحص کند. متا اظهار داشت که سیسرو به گونه‌ای آموزش دیده است که «تا حد زیادی صادق و کمک‌کننده» باشد و هرگز به متحدان انسانی‌اش از پشت خنجر نزند.

پارک گفت: توضیح متا بسیار مشکوک بود، زیرا «از پشت خنجر زدن» یکی از مهم‌ترین مفاهیم بازی دیپلماسی است.

پارک و همکارانش داده‌های در دسترس عموم را غربال کردند و موارد متعددی از سیسرو را شناسایی کردند که دروغ‌های از پیش برنامه‌ریزی‌شده گفته بود و تبانی کرده بود تا بازیکنان دیگر را به توطئه بکشاند و حتی وانمود کرده که داشته با دوستش تلفنی حرف می‌زده تا برای عملکرد ضعیف خودش بهانه بیاورد!

پارک گفت: «ما متوجه شدیم که هوش مصنوعی متا در فریبکاری استاد شده است.» تیم پژوهشی ام آی تی نمونه‌های مشابهی از رفتار فریبکارانه هوش مصنوعی را در بازی‌های دیگر با موضوع اقتصادی نیز پیدا کردند. 

پاسخ شرکت «متا»

سخنگوی متا در پاسخ گفته است: «سیسرو یک پروژه تحقیقاتی بود و مدل‌هایی که محققان ما ساختند صرفاً برای بازی دیپلماسی آموزش دیده بودند. ما در شرکت متا به طور منظم نتایج تحقیقاتمان را به اشتراک میگذاریم و هیچ برنامه‌ای برای استفاده از این تحقیق یا آموخته‌های آن در محصولات خود نداریم.»

پارک می‌گوید: «اگر فلان سیستم هوش مصنوعی در یک شرایط ایمن است معنی‌اش این نیست که در همه شرایط دیگر هم ایمن است، شاید فقط در همان آزمایش تظاهر به ایمن بودن کرده باشد!»

این بررسی که در مجله پتِرنز (Patterns) منتشر شده است، از دولت‌ها می‌خواهد تا قوانین ایمنی هوش مصنوعی با در نظر گرفتن احتمال فریبکاری بررسی کند چرا که این سیستم‌ها اگر بتوانند ظرفیت فریبکاری خود را ارتقاء دهند شاید دیگر از کنترل انسان‌ها خارج شوند. 

پروفسور آنتونی کوهن، استاد استدلال خودکار در دانشگاه لیدز و موسسه آلن تورینگ، میگوید: «ویژگی‌های مطلوب برای یک سیستم هوش مصنوعی عبارتند از: صداقت، مفید بودن و بی‌ضرر بودن، اما همانطور که در مقالات علمی نیز آمده است، این ویژگی‌ها می‌توانند در تضاد با یکدیگر باشند، بیش از حد صادق باشند و به احساسات دیگران آسیب برسانند، یا در پاسخ به سوالی در مورد چگونگی ساخت بمب مفید باشند! بنابراین، فریب نیز گاهی می‌تواند ویژگی مطلوب یک سیستم هوش مصنوعی باشد. نویسندگان، خواستار تحقیقات بیشتر در مورد چگونگی کنترل صداقت هستند که اگرچه چالش برانگیز است، اما گامی در جهت محدود کردن عواقب مضر آنها خواهد بود.»

این گزارش از مجله گاردین به فارسی برگردان شده است.

انتهای پیام

دکمه بازگشت به بالا