تقابل انسان و هوش مصنوعی

انسان‌ها انتظار دارند هوش مصنوعی ابزاری قابل اعتماد باشد و این در حالیست که مطالعه‌ای جدید نشان می‌دهد که انسان‌ها در عین حال تمایلی به همکاری و سازش با ماشین‌ها و تعامل با هوش مصنوعی را ندارند.

در آینده نزدیک، خود را هنگام رانندگی در جاده‌ای باریک تصور کنید که ناگهان ماشین دیگری از پیچی جلوتر بیرون می‌آید. اتومبیلی خودران که هیچ مسافری درون آن وجود ندارد. آیا شما جلو می‌روید و در خصوص حق تقدم خود بحث می‌کنید، یا به آن اجازه عبور می‌دهید؟ در حال حاضر، بیشتر ما انسان‌ها در مثالی مشابه اما در برخورد با یک انسان و نه هوش مصنوعی، ممکن است مهربانی به خرج دهیم، اما آیا همانمیزان  مهربانی را نسبت به وسایل نقلیه خودمختار هم نشان خواهیم داد؟

با استفاده از روش‌های تئوری بازی رفتاری، تیم بین‌المللی محققان LMU و دانشگاه لندن، مطالعات آنلاین گسترده‌ای را در خصوص رفتارهای مشترک انسان‌ها با یکدیگر و با هوش مصنوعی بررسی نمودند.

همکاری، یک جامعه را در کنار هم نگه می‌دارد و اغلب ما را ملزم می‌کند با دیگران مصالحه کنیم و یا حتی خطرات احتمالی را بپذیریم. ترافیک مثال خوبی است. وقتی به دیگران اجازه می‌دهیم از مقابل ما عبور کنند، کمی زمان از دست می‌دهیم و وقتی دیگران این مهربانی ما را پاسخ ندهند، خشمگین می‌شویم، اما آیا در برابر ماشین‌ها هم همین برخورد را خواهیم داشت؟

عدم اعتماد به هوش مصنوعی

مقاله منتشر شده در مجله iScience نشان می‌دهد که مردم در اولین برخورد با هوش مصنوعی به همان اندازه اعتماد نشان می‌دهند که به انسان‌ها و این درحالیست که بیشتر آن‌ها انتظار ملاقات با کسی را دارند که مشابه یک انسان، پر انرژی و آماده همکاری است.

اما کمی بعد با چیزی مغایر و متفاوت با تصورشان روبرو می‌شوند و حقیقت این است که مردم بسیار كمتر آماده پاسخ متقابل به هوش مصنوعی هستند و در عوض از مزایای آن به نفع خود بهره می‌برند. با بازگشت به مثال ترافیک، خواهیم دید که انسان‌ها حتی حاضر هستند فرصت عبور خود را به ماشین فردی دیگر دهند اما به اتومبیل خودران هرگز. این مطالعه، عدم تمایل انسان به سازش با ماشین‌آلات را به عنوان چالشی جدید برای آینده تعاملات مابین انسان و هوش مصنوعی مشخص می‌سازد.

به گفته دکتر جورگیس کارپوس (تئوریسین بازی رفتاری و فیلسوف  LMU مونیخ): «ما طی یک آزمایش مردم را در شرایطی قرار دادیم که برای نخستین بار با یک عامل غیر واقعی ارتباط برقرار ‌کنند، سپس انواع مختلف برخوردهای اجتماعی را مدلسازی کردیم و الگویی سازگار یافتیم. اکثر مردم انتظار داشتند عوامل هوش مصنوعی مشابه انسان‌ها همکاری کنند، اما با این حال موفق نشدند توجه زیادی را معطوف خود سازند.»

با نگاهی به نظریه بازی، علوم شناختی و فلسفه، محققان دریافتند که «بهره‌برداری از الگوریتم» پدیده‌ای مؤثر است و به همین منظور یافته‌های خود را در 9 آزمایش و با نزدیک به 2000 شرکت‌کننده انسانی تکرار کردند.

هر یک از این آزمایشات، انواع مختلف تعاملات اجتماعی را بررسی کرد و طی آن‌ها به انسان‌ها اجازه داده شد تا تصمیم بگیرند که نسبت به هوش مصنوعی سازش می‌کنند و همکاری نشان می‌دهند یا بر خلاف چیزی که تصور می‌شود خودخواهانه عمل می‌نماید. برای مثال حین اجرای یک بازی، مردم باید اعتماد می‌کردند که شخصیت‌های دیگر، آن‌ها را در میانه راه رها نمی‌کنند و با اینکه طی بازی با انسان و هوش مصنوعی به یک میزان برخورد داشتند، اما برای به دست آوردن امتیاز بیشتر، اغلب به انسان اعتماد کردند تا هوش مصنوعی.