انسانها انتظار دارند هوش مصنوعی ابزاری قابل اعتماد باشد و این در حالیست که مطالعهای جدید نشان میدهد که انسانها در عین حال تمایلی به همکاری و سازش با ماشینها و تعامل با هوش مصنوعی را ندارند.
در آینده نزدیک، خود را هنگام رانندگی در جادهای باریک تصور کنید که ناگهان ماشین دیگری از پیچی جلوتر بیرون میآید. اتومبیلی خودران که هیچ مسافری درون آن وجود ندارد. آیا شما جلو میروید و در خصوص حق تقدم خود بحث میکنید، یا به آن اجازه عبور میدهید؟ در حال حاضر، بیشتر ما انسانها در مثالی مشابه اما در برخورد با یک انسان و نه هوش مصنوعی، ممکن است مهربانی به خرج دهیم، اما آیا همانمیزان مهربانی را نسبت به وسایل نقلیه خودمختار هم نشان خواهیم داد؟
با استفاده از روشهای تئوری بازی رفتاری، تیم بینالمللی محققان LMU و دانشگاه لندن، مطالعات آنلاین گستردهای را در خصوص رفتارهای مشترک انسانها با یکدیگر و با هوش مصنوعی بررسی نمودند.
همکاری، یک جامعه را در کنار هم نگه میدارد و اغلب ما را ملزم میکند با دیگران مصالحه کنیم و یا حتی خطرات احتمالی را بپذیریم. ترافیک مثال خوبی است. وقتی به دیگران اجازه میدهیم از مقابل ما عبور کنند، کمی زمان از دست میدهیم و وقتی دیگران این مهربانی ما را پاسخ ندهند، خشمگین میشویم، اما آیا در برابر ماشینها هم همین برخورد را خواهیم داشت؟
عدم اعتماد به هوش مصنوعی
مقاله منتشر شده در مجله iScience نشان میدهد که مردم در اولین برخورد با هوش مصنوعی به همان اندازه اعتماد نشان میدهند که به انسانها و این درحالیست که بیشتر آنها انتظار ملاقات با کسی را دارند که مشابه یک انسان، پر انرژی و آماده همکاری است.
اما کمی بعد با چیزی مغایر و متفاوت با تصورشان روبرو میشوند و حقیقت این است که مردم بسیار كمتر آماده پاسخ متقابل به هوش مصنوعی هستند و در عوض از مزایای آن به نفع خود بهره میبرند. با بازگشت به مثال ترافیک، خواهیم دید که انسانها حتی حاضر هستند فرصت عبور خود را به ماشین فردی دیگر دهند اما به اتومبیل خودران هرگز. این مطالعه، عدم تمایل انسان به سازش با ماشینآلات را به عنوان چالشی جدید برای آینده تعاملات مابین انسان و هوش مصنوعی مشخص میسازد.
به گفته دکتر جورگیس کارپوس (تئوریسین بازی رفتاری و فیلسوف LMU مونیخ): «ما طی یک آزمایش مردم را در شرایطی قرار دادیم که برای نخستین بار با یک عامل غیر واقعی ارتباط برقرار کنند، سپس انواع مختلف برخوردهای اجتماعی را مدلسازی کردیم و الگویی سازگار یافتیم. اکثر مردم انتظار داشتند عوامل هوش مصنوعی مشابه انسانها همکاری کنند، اما با این حال موفق نشدند توجه زیادی را معطوف خود سازند.»
با نگاهی به نظریه بازی، علوم شناختی و فلسفه، محققان دریافتند که «بهرهبرداری از الگوریتم» پدیدهای مؤثر است و به همین منظور یافتههای خود را در 9 آزمایش و با نزدیک به 2000 شرکتکننده انسانی تکرار کردند.
هر یک از این آزمایشات، انواع مختلف تعاملات اجتماعی را بررسی کرد و طی آنها به انسانها اجازه داده شد تا تصمیم بگیرند که نسبت به هوش مصنوعی سازش میکنند و همکاری نشان میدهند یا بر خلاف چیزی که تصور میشود خودخواهانه عمل مینماید. برای مثال حین اجرای یک بازی، مردم باید اعتماد میکردند که شخصیتهای دیگر، آنها را در میانه راه رها نمیکنند و با اینکه طی بازی با انسان و هوش مصنوعی به یک میزان برخورد داشتند، اما برای به دست آوردن امتیاز بیشتر، اغلب به انسان اعتماد کردند تا هوش مصنوعی.