اخیراً در این شمارهی مجلهی HBR مقالهای از یک روانشناس خواندم که به موانع روانشناختیای که باعث مقاومت مردم در برابر هوش مصنوعی میشود پرداخته بود. اغلب توسعهدهندگان در حوزهی مهندسی، تنها به جنبههای فنی و عملکردی هوش مصنوعی توجه میکنند و به جنبههای روانشناختی که میتواند بر پذیرش آن تأثیر بگذارد، کمتر پرداختهاند. طبق یک نظرسنجی گارتنر در سال ۲۰۲۳، ۷۹٪ از استراتژیستهای شرکتها معتقدند که استفاده از هوش مصنوعی، اتوماسیون و تحلیل داده برای موفقیت آنها در دو سال آینده حیاتی خواهد بود. اما نکته جالب اینجاست: فقط ۲۰٪ از آنها واقعاً از هوش مصنوعی در فعالیتهای روزانهشان استفاده میکنند!
همچنین بر اساس نظرسنجی YouGov، تقریباً نیمی از آمریکاییها باور دارند که هوش مصنوعی روزی به بشریت حمله خواهد کرد! ظاهراً با این حجم از بدبینی، متقاعد کردن خیلیها برای اینکه از هوش مصنوعی مشتاقانه استفاده کنند، کار آسانی نیست!
نویسندهی مقاله در بیش از یک دهه تحقیق درباره پذیرش فناوری—شامل مصاحبههای عمیق و آزمایشهایی با حدود ۲۵۰۰ کاربر— متوجه شده است که ریشه این مقاومت در چیست: باورهای اساسی انسانی که هوش مصنوعی را بیش از حد مبهم، بیاحساس، انعطافناپذیر و خودمختار میدانند و اینکه تعامل با انسانها بسیار مطلوبتر است.
در ادامه این پست به صورت خلاصه هر مورد را توضیح دادهام.
۱. مردم باور دارند که نحوه کارکرد هوش مصنوعی بیش از حد مبهم است
مردم اغلب فکر میکنند هوش مصنوعی بیش از حد پیچیده و غیرقابل فهم است. الگوریتمهای یادگیری ماشینی که پشت بسیاری از ابزارهای هوش مصنوعی قرار دارند، برای کاربران مثل یک «جعبه سیاه» هستند که نمیتوانند داخل آن را ببینند. این موضوع باعث میشود حس کنجکاوی و نیاز طبیعی انسان به درک و فهمیدن، بهویژه در مواجهه با نتایج غیرمنتظره یا نامطمئن، ارضا نشود.
تحقیقات نشان دادهاند که اگر عملکرد هوش مصنوعی بهتر از انسان یا مدلهای سادهتر باشد، مردم حاضرند از آن استفاده کنند. اما اگر عملکرد آن مشابه انسان باشد، ممکن است تمایلی به استفاده نداشته باشند. جالب اینجاست که مردم تصور میکنند تصمیمگیری انسانها شفافتر از الگوریتمهاست، اما این باور درست نیست. روانشناسان نشان دادهاند که افراد در واقع درک کمی از افکار دیگران دارند و برای تفسیر رفتار انسانی از میانبرهای ذهنی استفاده میکنند.
یکی از راههای افزایش پذیرش هوش مصنوعی، توضیح نحوه عملکرد آن است. فهم «چرایی» پشت یک تصمیم توسط هوش مصنوعی اعتماد بیشتری ایجاد میکند. مردم ترجیح میدهند بدانند چرا هوش مصنوعی یک تصمیم خاص گرفته است (مثلاً «ماشین خودران ترمز کرد چون مانعی جلوی آن بود») تا اینکه فقط بدانند چه اتفاقی افتاده (مثلاً «ترمز فعال شد و ماشین متوقف شد»).
راه حل:
مدیران باید هنگام معرفی هوش مصنوعی به سازمانها ابتدا از مدلهای سادهتر استفاده کنند تا اعتماد کارکنان جلب شود و آنها انگیزه پیدا کنند تا از آن استفاده کنند. بهعنوان مثال، شرکت Miroglio Fashion برای پیشبینی تقاضا در ۱۰۰۰ فروشگاه خود، ابتدا از یک مدل ساده استفاده کرد که موجودی را بر اساس ویژگیهای پایهای لباس، مانند دستهبندی، جنس، رنگ و قیمت تحلیل میکرد تا پیشبینی کند کدام اقلام باید به هر فروشگاه اختصاص یابد. این مدل ساده، درک راحتتری داشت و کارکنان بهراحتی میتوانستند آن را بپذیرند. اما مدل پیچیدهتر، که از تحلیل پیشرفته تصاویر استفاده میکرد، ویژگیهای بصری پیچیدهتر مانند شکل لباس، لایهبندی و ترکیب مواد را تحلیل میکرد تا همان پیشبینیها را انجام دهد. علیرغم اینکه مدل پیچیدهتر از مدل ساده عملکرد بهتری داشت، تیم اجرایی تصمیم گرفت ابتدا مدل سادهتر را معرفی کند تا کارکنان احساس راحتی کنند و به هوش مصنوعی اعتماد پیدا کنند.
همچنین، توضیحات دقیقتر در مورد چگونگی عملکرد الگوریتمها میتواند به پذیرش بیشتر آنها کمک کند؛ بهطور مثال، برای تشخیص سرطان، توضیح اینکه الگوریتم چگونه هزاران تصویر از انواع تومورها را مقایسه کرده یا به تحقیقات علمی استناد کرده، باعث میشود کاربرها احساس کنند که هوش مصنوعی قابل اعتماد است و کمتر احتمال دارد از آن دوری کنند.
۲. مردم باور دارند که هوش مصنوعی بیاحساس است
مردم برخی تواناییهای انسانی را به هوش مصنوعی نسبت میدهند، اما معتقد نیستند که ماشینها احساسات را درک میکنند. به همین دلیل، نسبت به توانایی هوش مصنوعی در انجام وظایف ذهنی که نیاز به درک احساسی دارد مشکوکند. این تردید باعث میشود پذیرش سیستمهای هوش مصنوعی، حتی در وظایفی که به خوبی انسان عمل میکنند، دشوار باشد. برای مثال، مردم توصیههای مالی ارائهشده توسط هوش مصنوعی را میپذیرند، زیرا آن را یک تصمیمگیری عینی و مبتنی بر داده میدانند. در مقابل، در زمینههایی مانند مشاورهی دوستیابی یا توصیههای مربوط به سبک زندگی، که به نظر میرسد نیاز به فهم عمیق احساسات انسانی دارد، تمایل بیشتری به دریافت راهنمایی از انسانها دارند.
راه حل:
سازمانها میتوانند این چالش را با تأکید بر جنبههای قابل اندازهگیری مسائل حل کنند. به عنوان مثال، در مورد مشاورهی دوستیابی با هوش مصنوعی، میتوان بر مزایای استفاده از نتایج قابل اندازهگیری ارزیابیهای شخصیتی برای هدایت فرایند انتخاب شریک تأکید کرد. برای مثال، اپ دوستیابی آنلاین OkCupid با ترکیب الگوریتمهای خود با ارزیابیهای شخصیتی و تحلیل دقیق دادههای کاربران، بر فیلتر کردن و رتبهبندی افراد برای پیدا کردن گزینهی مناسب تمرکز دارد.
همچنین انسانانگاری هوش مصنوعی، مثل دادن نام، صدا یا جنسیت به آن، میتواند باعث افزایش اعتماد و پذیرش شود. برای مثال، در خودروهای خودران، وقتی سیستم دارای صدای انسانی یا آواتار باشد، کاربران احساس راحتی و اعتماد بیشتری دارند.
۳. مردم باور دارند که هوش مصنوعی انعطافپذیر نیست
مردم تصور میکنند که سیستمهای هوش مصنوعی خشک و غیرقابل تغییرند، چون تجربهشان از ماشینها معمولاً نشان داده است که فقط کارهای محدودی انجام میدهند. این دیدگاه باعث میشود که کاربران به هوش مصنوعی اعتماد نکنند و نگران عملکرد آن در شرایط جدید باشند.
تحقیقات نشان دادهاند که اگر به کاربران گفته شود هوش مصنوعی میتواند یاد بگیرد و پیشرفت کند، میزان استفاده از آن افزایش پیدا میکند. حتی تغییر نامگذاری از «الگوریتم» به «یادگیری ماشین» میتواند باعث افزایش تعامل شود. برای مثال، نتفلیکس توضیح میدهد که پیشنهادهایش بر اساس سلیقه کاربر بهبود پیدا میکنند و با برچسبهایی مثل “برای شما” این پیام را تقویت میکند.
یک مطالعه نشان داد که ۵٪ از کاربران پنج اپلیکیشن هوش مصنوعی مبتنی بر مکالمه، از آنها برای مشاورههای سلامت روانی استفاده میکردند. آزمایشی روی ۱۰۰۰ پیام بحرانی نشان داد که ۲۵٪ از پاسخهای تولیدشده توسط این سیستمها مشکلساز بوده و احتمال آسیب به خود را افزایش میدادند. کاربران نیز به این اپها امتیاز پایینی دادند و معتقد بودند که شرکتهای سازنده باید مسئولیت چنین پاسخهایی را بپذیرند.
راه حل:
سیستمهای هوش مصنوعی باید تعادل بین انعطافپذیری، پیشبینیپذیری و ایمنی را حفظ کنند. این کار میتواند با دریافت بازخورد کاربران و ایجاد مکانیسمهای ایمن برای مدیریت ورودیهای غیرمنتظره انجام شود.
۴. مردم فکر میکنند هوش مصنوعی بیش از حد خودمختار است
ابزارهای هوش مصنوعی که بدون دخالت مستقیم انسان کار میکنند، اغلب برای مردم تهدیدآمیز به نظر میرسند. از کودکی، انسانها تلاش میکنند محیط اطرافشان را کنترل کنند تا به اهدافشان برسند. به همین دلیل، بهطور طبیعی در برابر فناوریهایی که احساس کنترل آنها را کاهش میدهد، مقاومت نشان میدهند.
هوش مصنوعی به الگوریتمها استقلال بالایی میدهد و آنها را قادر میسازد که راهبردهای خود را تعیین کنند، تصمیم بگیرند و بدون راهنمایی مستقیم انسان، خود را بهبود دهند. این احتمال که هوش مصنوعی بهجای کمک به انسانها، کنترل کامل کارها را به دست بگیرد، باعث نگرانی میشود. برای مثال، ۷۶٪ از آمریکاییها نسبت به خودروهای خودران احساس ناامنی دارند. همچنین، بسیاری از مردم نگران این هستند که دستگاههای هوشمند خانگی اطلاعات شخصیشان را بدون اطلاع آنها جمعآوری کنند و از آنها به روشهای غیرمنتظرهای استفاده شود.
راه حل:
برای افزایش پذیرش هوش مصنوعی، شرکتها میتوانند حس کنترل کاربران را با ایجاد سیستمهای “انسان در چرخه” تقویت کنند، جایی که کاربران همچنان ورودیهایی را ارائه میدهند. به عنوان مثال، ترموستات هوشمند Nest به کاربران اجازه میدهد که بین تنظیمات خودکار و دستی انتخاب کنند. همچنین، برخی تغییرات طراحی میتوانند حس کنترل را بیشتر کنند، مانند جاروبرقی Roomba که مسیرهای قابل پیشبینی طی میکند تا کمتر “زنده” به نظر برسد.
البته، اگر کاربران کنترل بیشازحدی روی سیستمهای هوش مصنوعی داشته باشند، این میتواند کارایی الگوریتم را کاهش دهد. خوشبختانه تحقیقات نشان دادهاند که افراد تنها به مقدار کمی از کنترل نیاز دارند تا احساس راحتی کنند. بنابراین، شرکتها میتوانند تعادل مناسبی بین حس کنترل انسانی و دقت سیستمهای هوش مصنوعی برقرار کنند.
۵. مردم تعامل با انسانها را ترجیح میدهند
نویسندهی مقاله در یکی از مطالعاتش بررسی کرده است که آیا مردم ترجیح میدهند از فروشندگان انسانی خدمات بگیرند یا از رباتهای مجهز به هوش مصنوعی که از نظر ظاهر و تواناییهای ذهنی و فیزیکی کاملاً شبیه به انسان هستند. در تمام معیارها—از جمله میزان راحتی در تعامل، تمایل به خرید از فروشگاهی که این رباتها در آن کار میکنند و انتظارات از کیفیت خدمات—مردم دائماً انسانها را ترجیح میدادند! دلیل اصلی این ترجیح، این باور بود که رباتها فاقد آگاهی انسانی و درک واقعی از معنا هستند.
زمینه فرهنگی هم میتواند نقش مهمی در پذیرش یا مقاومت در برابر هوش مصنوعی داشته باشد. برای مثال، در ژاپن این باور که حتی اشیای بیجان هم میتوانند روح داشته باشند، رایجتر است. این میتواند باعث پذیرش بیشتر هوش مصنوعیهایی شود که شبیه انسان طراحی شدهاند.
راه حل:
هرچقدر هم که کسبوکارها در هوش مصنوعی سرمایهگذاری کنند، باید موانع روانی پذیرش آن را در نظر بگیرند. هر اقدامی که برای افزایش پذیرش انجام میشود، ممکن است ناخواسته باعث افزایش مقاومت شود. بنابراین، نباید عجولانه به دنبال راهحل رفت. هر سیستم هوش مصنوعی و هر موقعیت استفاده از آن، با موانع متفاوتی روبهرو خواهد شد. وظیفه رهبران این است که این موانع را بشناسند و به مشتریان و کارکنان کمک کنند تا بر آنها غلبه کنند.