چرا مردم در برابر هوش مصنوعی مقاومت می‌کنند؟ – پنج مانع اصلی و راه‌های عبور از آن

نسخه صوتی

اخیراً در این شماره‌ی مجله‌ی HBR مقاله‌ای از یک روانشناس خواندم که به موانع روان‌شناختی‌ای که باعث مقاومت مردم در برابر هوش مصنوعی می‌شود پرداخته بود. اغلب توسعه‌دهندگان در حوزه‌ی مهندسی، تنها به جنبه‌های فنی و عملکردی هوش مصنوعی توجه می‌کنند و به جنبه‌های روان‌شناختی که می‌تواند بر پذیرش آن تأثیر بگذارد، کمتر پرداخته‌اند. طبق یک نظرسنجی گارتنر در سال ۲۰۲۳، ۷۹٪ از استراتژیست‌های شرکت‌ها معتقدند که استفاده از هوش مصنوعی، اتوماسیون و تحلیل داده برای موفقیت آن‌ها در دو سال آینده حیاتی خواهد بود. اما نکته جالب اینجاست: فقط ۲۰٪ از آن‌ها واقعاً از هوش مصنوعی در فعالیت‌های روزانه‌شان استفاده می‌کنند!

همچنین بر اساس نظرسنجی YouGov، تقریباً نیمی از آمریکایی‌ها باور دارند که هوش مصنوعی روزی به بشریت حمله خواهد کرد!  ظاهراً‌ با این حجم از بدبینی، متقاعد کردن خیلی‌ها برای اینکه از هوش مصنوعی مشتاقانه استفاده کنند، کار آسانی نیست!

نویسنده‌ی مقاله  در بیش از یک دهه تحقیق درباره پذیرش فناوری—شامل مصاحبه‌های عمیق و آزمایش‌هایی با حدود ۲۵۰۰ کاربر— متوجه شده‌ است که ریشه این مقاومت در چیست: باورهای اساسی انسانی که هوش مصنوعی را بیش از حد مبهم، بی‌احساس، انعطاف‌ناپذیر و خودمختار می‌دانند و اینکه تعامل با انسان‌ها بسیار مطلوب‌تر است.

در ادامه این پست به صورت خلاصه هر مورد را توضیح داده‌ام.

‎۱. مردم باور دارند که نحوه کارکرد هوش مصنوعی بیش از حد مبهم است

مردم اغلب فکر می‌کنند هوش مصنوعی بیش از حد پیچیده و غیرقابل فهم است. الگوریتم‌های یادگیری ماشینی که پشت بسیاری از ابزارهای هوش مصنوعی قرار دارند، برای کاربران مثل یک «جعبه سیاه» هستند که نمی‌توانند داخل آن را ببینند. این موضوع باعث می‌شود حس کنجکاوی و نیاز طبیعی انسان به درک و فهمیدن، به‌ویژه در مواجهه با نتایج غیرمنتظره یا نامطمئن، ارضا نشود.  

تحقیقات نشان داده‌اند که اگر عملکرد هوش مصنوعی بهتر از انسان یا مدل‌های ساده‌تر باشد، مردم حاضرند از آن استفاده کنند. اما اگر عملکرد آن مشابه انسان باشد، ممکن است تمایلی به استفاده نداشته باشند. جالب اینجاست که مردم تصور می‌کنند تصمیم‌گیری انسان‌ها شفاف‌تر از الگوریتم‌هاست، اما این باور درست نیست. روانشناسان نشان داده‌اند که افراد در واقع درک کمی از افکار دیگران دارند و برای تفسیر رفتار انسانی از میانبرهای ذهنی استفاده می‌کنند.

یکی از راه‌های افزایش پذیرش هوش مصنوعی، توضیح نحوه عملکرد آن است. فهم «چرایی» پشت یک تصمیم توسط هوش مصنوعی اعتماد بیشتری ایجاد می‌کند. مردم ترجیح می‌دهند بدانند چرا هوش مصنوعی یک تصمیم خاص گرفته است (مثلاً «ماشین خودران ترمز کرد چون مانعی جلوی آن بود») تا اینکه فقط بدانند چه اتفاقی افتاده (مثلاً «ترمز فعال شد و ماشین متوقف شد»).  

راه حل:

مدیران باید هنگام معرفی هوش مصنوعی به سازمان‌ها ابتدا از مدل‌های ساده‌تر استفاده کنند تا اعتماد کارکنان جلب شود و آن‌ها انگیزه پیدا کنند تا از آن استفاده کنند. به‌عنوان مثال، شرکت Miroglio Fashion برای پیش‌بینی تقاضا در ۱۰۰۰ فروشگاه خود، ابتدا از یک مدل ساده استفاده کرد که موجودی را بر اساس ویژگی‌های پایه‌ای لباس، مانند دسته‌بندی، جنس، رنگ و قیمت تحلیل می‌کرد تا پیش‌بینی کند کدام اقلام باید به هر فروشگاه اختصاص یابد. این مدل ساده، درک راحت‌تری داشت و کارکنان به‌راحتی می‌توانستند آن را بپذیرند. اما مدل پیچیده‌تر، که از تحلیل پیشرفته تصاویر استفاده می‌کرد، ویژگی‌های بصری پیچیده‌تر مانند شکل لباس، لایه‌بندی و ترکیب مواد را تحلیل می‌کرد تا همان پیش‌بینی‌ها را انجام دهد. علی‌رغم اینکه مدل پیچیده‌تر از مدل ساده عملکرد بهتری داشت، تیم اجرایی تصمیم گرفت ابتدا مدل ساده‌تر را معرفی کند تا کارکنان احساس راحتی کنند و به هوش مصنوعی اعتماد پیدا کنند. 

همچنین، توضیحات دقیق‌تر در مورد چگونگی عملکرد الگوریتم‌ها می‌تواند به پذیرش بیشتر آن‌ها کمک کند؛ به‌طور مثال، برای تشخیص سرطان، توضیح اینکه الگوریتم چگونه هزاران تصویر از انواع تومورها را مقایسه کرده یا به تحقیقات علمی استناد کرده، باعث می‌شود کاربرها احساس کنند که هوش مصنوعی قابل اعتماد است و کمتر احتمال دارد از آن دوری کنند.

‎۲. مردم باور دارند که هوش مصنوعی بی‌احساس است

مردم برخی توانایی‌های انسانی را به هوش مصنوعی نسبت می‌دهند، اما معتقد نیستند که ماشین‌ها احساسات را درک می‌کنند. به همین دلیل، نسبت به توانایی هوش مصنوعی در انجام وظایف ذهنی که نیاز به درک احساسی دارد مشکوکند. این تردید باعث می‌شود پذیرش سیستم‌های هوش مصنوعی، حتی در وظایفی که به خوبی انسان عمل می‌کنند، دشوار باشد. برای مثال، مردم توصیه‌های مالی ارائه‌شده توسط هوش مصنوعی را می‌پذیرند، زیرا آن را یک تصمیم‌گیری عینی و مبتنی بر داده می‌دانند. در مقابل، در زمینه‌هایی مانند مشاوره‌ی دوستیابی یا توصیه‌های مربوط به سبک زندگی، که به نظر می‌رسد نیاز به فهم عمیق احساسات انسانی دارد، تمایل بیشتری به دریافت راهنمایی از انسان‌ها دارند.

راه حل:

سازمان‌ها می‌توانند این چالش را با تأکید بر جنبه‌های قابل اندازه‌گیری مسائل حل کنند. به عنوان مثال، در مورد مشاوره‌ی دوستیابی با هوش مصنوعی، می‌توان بر مزایای استفاده از نتایج قابل اندازه‌گیری ارزیابی‌های شخصیتی برای هدایت فرایند انتخاب شریک تأکید کرد. برای مثال، اپ دوستیابی آنلاین OkCupid با ترکیب الگوریتم‌های خود با ارزیابی‌های شخصیتی و تحلیل دقیق داده‌های کاربران، بر فیلتر کردن و رتبه‌بندی افراد برای پیدا کردن گزینه‌ی مناسب تمرکز دارد.

همچنین انسان‌انگاری هوش مصنوعی، مثل دادن نام، صدا یا جنسیت به آن، می‌تواند باعث افزایش اعتماد و پذیرش شود. برای مثال، در خودروهای خودران، وقتی سیستم دارای صدای انسانی یا آواتار باشد، کاربران احساس راحتی و اعتماد بیشتری دارند.

۳. مردم باور دارند که هوش مصنوعی انعطاف‌پذیر نیست

مردم تصور می‌کنند که سیستم‌های هوش مصنوعی خشک و غیرقابل تغییرند، چون تجربه‌شان از ماشین‌ها معمولاً‌ نشان داده است که فقط کارهای محدودی انجام می‌دهند. این دیدگاه باعث می‌شود که کاربران به هوش مصنوعی اعتماد نکنند و نگران عملکرد آن در شرایط جدید باشند.

تحقیقات نشان داده‌اند که اگر به کاربران گفته شود هوش مصنوعی می‌تواند یاد بگیرد و پیشرفت کند، میزان استفاده از آن افزایش پیدا می‌کند. حتی تغییر نام‌گذاری از «الگوریتم» به «یادگیری ماشین» می‌تواند باعث افزایش تعامل شود. برای مثال، نتفلیکس توضیح می‌دهد که پیشنهادهایش بر اساس سلیقه کاربر بهبود پیدا می‌کنند و با برچسب‌هایی مثل “برای شما” این پیام را تقویت می‌کند.

یک مطالعه نشان داد که ۵٪ از کاربران پنج اپلیکیشن هوش مصنوعی مبتنی بر مکالمه، از آن‌ها برای مشاوره‌های سلامت روانی استفاده می‌کردند. آزمایشی روی ۱۰۰۰ پیام بحرانی نشان داد که ۲۵٪ از پاسخ‌های تولیدشده توسط این سیستم‌ها مشکل‌ساز بوده و احتمال آسیب به خود را افزایش می‌دادند. کاربران نیز به این اپ‌ها امتیاز پایینی دادند و معتقد بودند که شرکت‌های سازنده باید مسئولیت چنین پاسخ‌هایی را بپذیرند.

راه حل:

سیستم‌های هوش مصنوعی باید تعادل بین انعطاف‌پذیری، پیش‌بینی‌پذیری و ایمنی را حفظ کنند. این کار می‌تواند با دریافت بازخورد کاربران و ایجاد مکانیسم‌های ایمن برای مدیریت ورودی‌های غیرمنتظره انجام شود.

۴. مردم فکر می‌کنند هوش مصنوعی بیش از حد خودمختار است

ابزارهای هوش مصنوعی که بدون دخالت مستقیم انسان کار می‌کنند، اغلب برای مردم تهدیدآمیز به نظر می‌رسند. از کودکی، انسان‌ها تلاش می‌کنند محیط اطرافشان را کنترل کنند تا به اهدافشان برسند. به همین دلیل، به‌طور طبیعی در برابر فناوری‌هایی که احساس کنترل آن‌ها را کاهش می‌دهد، مقاومت نشان می‌دهند.

هوش مصنوعی به الگوریتم‌ها استقلال بالایی می‌دهد و آن‌ها را قادر می‌سازد که راهبردهای خود را تعیین کنند، تصمیم بگیرند و بدون راهنمایی مستقیم انسان، خود را بهبود دهند. این احتمال که هوش مصنوعی به‌جای کمک به انسان‌ها، کنترل کامل کارها را به دست بگیرد، باعث نگرانی می‌شود. برای مثال، ۷۶٪ از آمریکایی‌ها نسبت به خودروهای خودران احساس ناامنی دارند. همچنین، بسیاری از مردم نگران این هستند که دستگاه‌های هوشمند خانگی اطلاعات شخصی‌شان را بدون اطلاع آن‌ها جمع‌آوری کنند و از آن‌ها به روش‌های غیرمنتظره‌ای استفاده شود.

راه حل:

برای افزایش پذیرش هوش مصنوعی، شرکت‌ها می‌توانند حس کنترل کاربران را با ایجاد سیستم‌های “انسان در چرخه” تقویت کنند، جایی که کاربران همچنان ورودی‌هایی را ارائه می‌دهند. به عنوان مثال، ترموستات هوشمند Nest به کاربران اجازه می‌دهد که بین تنظیمات خودکار و دستی انتخاب کنند. همچنین، برخی تغییرات طراحی می‌توانند حس کنترل را بیشتر کنند، مانند جاروبرقی Roomba که مسیرهای قابل پیش‌بینی طی می‌کند تا کمتر “زنده” به نظر برسد.

البته، اگر کاربران کنترل بیش‌ازحدی روی سیستم‌های هوش مصنوعی داشته باشند، این می‌تواند کارایی الگوریتم را کاهش دهد. خوشبختانه تحقیقات نشان داده‌اند که افراد تنها به مقدار کمی از کنترل نیاز دارند تا احساس راحتی کنند. بنابراین، شرکت‌ها می‌توانند تعادل مناسبی بین حس کنترل انسانی و دقت سیستم‌های هوش مصنوعی برقرار کنند.

۵. مردم تعامل با انسان‌ها را ترجیح می‌دهند

نویسنده‌ی مقاله در یکی از مطالعاتش بررسی کرده است که آیا مردم ترجیح می‌دهند از فروشندگان انسانی خدمات بگیرند یا از ربات‌های مجهز به هوش مصنوعی که از نظر ظاهر و توانایی‌های ذهنی و فیزیکی کاملاً شبیه به انسان هستند. در تمام معیارها—از جمله میزان راحتی در تعامل، تمایل به خرید از فروشگاهی که این ربات‌ها در آن کار می‌کنند و انتظارات از کیفیت خدمات—مردم دائماً انسان‌ها را ترجیح می‌دادند! دلیل اصلی این ترجیح، این باور بود که ربات‌ها فاقد آگاهی انسانی و درک واقعی از معنا هستند.

زمینه فرهنگی هم می‌تواند نقش مهمی در پذیرش یا مقاومت در برابر هوش مصنوعی داشته باشد. برای مثال، در ژاپن این باور که حتی اشیای بی‌جان هم می‌توانند روح داشته باشند، رایج‌تر است. این می‌تواند باعث پذیرش بیشتر هوش مصنوعی‌هایی شود که شبیه انسان طراحی شده‌اند.

راه حل:

هرچقدر هم که کسب‌وکارها در هوش مصنوعی سرمایه‌گذاری کنند، باید موانع روانی پذیرش آن را در نظر بگیرند. هر اقدامی که برای افزایش پذیرش انجام می‌شود، ممکن است ناخواسته باعث افزایش مقاومت شود. بنابراین، نباید عجولانه به دنبال راه‌حل رفت. هر سیستم هوش مصنوعی و هر موقعیت استفاده از آن، با موانع متفاوتی روبه‌رو خواهد شد. وظیفه رهبران این است که این موانع را بشناسند و به مشتریان و کارکنان کمک کنند تا بر آن‌ها غلبه کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *