نیمه نامرئی فناوری؛ آیا هوش مصنوعی قدرت تفکر را از انسان میگیرد؟
خبرگزاری علم و فناوری آنا؛ همانطور که هوش مصنوعی بیشتر و بیشتر به زندگی روزمره مردم نفوذ میکند، نگرانی در مورد آن نیز افزایش مییابد. بیشترین نگرانیها در مورد سرکشی شدن هوش مصنوعی و خاتمه دادن به اربابان انسانی آن است؛ اما در پس درخواستها برای توقف توسعه هوش مصنوعی مجموعهای از آسیبهای اجتماعی ملموستر وجود دارد. خطراتی که هوش مصنوعی برای حریم خصوصی و حیثیت افراد ایجاد میکند یک واقعیت اجتنابناپذیر است؛ از آنجایی که الگوریتمهای زیر کلاه هوش مصنوعی توسط انسان برنامهریزی شدهاند، به همان اندازه میتواند تبعیضآمیز باشد.
اینروزها عدم شفافیت در مورد سازندگان و نحوه طراحی هوش مصنوعی و توسط این افراد، باعث شده است به اندازه ظرفیت هوش مصنوعی زمان زیادی به بحث در مورد خطرات آن اختصاص داده شود؛ اما تحقیقات روانشناسانی که نحوه تصمیمگیری افراد را مطالعه میکنند، آنها را به این باور رسانده است که همه این خطرات تحت الشعاع تهدیدی عمیقتر و عمدتاً نامرئیتر هستند. به این معنا که هوش مصنوعی تنها یک کلید ساده است که باعث میشود افراد در تصمیمگیریهای متفکرانه ضعیفترعمل کنند.
هوش مصنوعی فقط یک کلید ساده است که باعث میشود افراد در تصمیمگیریهای متفکرانه ضعیفتر عمل کنند
تصمیمگیری متفکرانه چه مراحلی دارد؟
فرآیند تصمیم گیری متفکرانه شامل سه مرحله عقل سلیم است که با صرف زمان برای درک کار یا مشکلی که با آن روبرو هستید آغاز میشود. از خود بپرسید، چه چیزی را باید بدانید، و چه کاری باید انجام دهید تا تصمیمی بگیرید که بعداً بتوانید با اطمینان و اطمینان از آن دفاع کنید؟
پاسخ به این سؤالات وابسته به جستجوی فعالانه اطلاعاتی است که هم شکافهای دانش شما را پر میکند و هم باورها و مفروضات قبلی شما را به چالش میکشد. در واقع، این اطلاعات خلاف واقع احتمالات جایگزینی هستند که وقتی افراد خود را از مفروضات خاص رها میکنند، ظاهر میشوند و در نهایت شما را برای دفاع از تصمیمهایتان در هنگام انتقاد تجهیز میکنند.
مرحله دوم جستجو و در نظر گرفتن بیش از یک گزینه است. آیا میخواهید کیفیت زندگی خود را بهبود بخشید؟ فرقی نمیکند به چه کسی رای میدهید، شغلهایی که میپذیرید یا چیزهایی که میخرید، همیشه بیش از یک راه وجود دارد که شما را به آنجا میرساند. تلاش برای در نظر گرفتن فعالانه و رتبه بندی حداقل چند گزینه معقول در میان مزایا و معایب آنها نشانه انتخاب متفکرانه و قابل دفاع است.
مرحله سوم این است که مایل باشید بسته شدن یک تصمیم را تا زمانی که تمام کارهای سنگین ذهنی لازم را انجام دادهاید به تعویق بیندازید. به این معنی که شما یک تصمیم دشوار یا مهم را پشت سر گذاشتهاید؛ اما هزینه حرکت پیش از موعد میتواند بسیار بیشتر از وقت گذاشتن برای انجام تکالیف باشد؛ زیرا زمانی را برای فکر کردن بیشتر اختصاص ندادهاید.
خطرات برون سپاری تصمیمات به هوش مصنوعی
هوش مصنوعی فرصت تمرین فرآیند تصمیم گیری متفکرانه و قابل دفاع را از مردم سلب میکند
برداشتن هیچ یک از این سه مرحله خیلی سخت نیست. اما، برای بیشتر افراد شهودی نیست. اتخاذ تصمیمات متفکرانه و قابل دفاع نیازمند تمرین و انضباط شخصی است؛ و این جایی است که آسیب پنهانی که هوش مصنوعی افراد را در معرض آن قرار میدهد ظاهر میشود: هوش مصنوعی بیشتر «تفکر» خود را در پشت صحنه انجام میدهد و پاسخهایی را به کاربران ارائه میدهد که فاقد زمینه و تامل هستند. بدتر از آن، هوش مصنوعی فرصت تمرین فرآیند تصمیم گیری متفکرانه و قابل دفاع را از مردم سلب میکند.
در نظر بگیرید که امروزه مردم چگونه به بسیاری از تصمیمات مهم برخورد میکنند. انسانها بهخاطر این که مستعد طیف گستردهای از سوگیریها هستند، به خوبی شناخته شدهاند، زیرا در هنگام صرف انرژی ذهنی، ما معمولاً صرفهجویی میکنیم. این صرفه جویی باعث میشود که مردم وقتی تصمیمات به ظاهر خوب یا قابل اعتمادی برای آنها گرفته میشود، آن را دوست داشته باشند. از آنجایی که انسانها موجوداتی اجتماعی هستند بیشتر از اینکه برای خودمختاری خود ارزش قائل باشند، برای امنیت و پذیرش جوامع خود ارزش قائل میشوند.
حالا هوش مصنوعی را به این ترکیب اضافه کنید. نتیجه آن یک بازخورد خطرناک است: دادههایی که هوش مصنوعی استخراج میکند تا الگوریتمهای خود را تقویت کند، از تصمیمهای مغرضانه افراد تشکیل شده است که همچنین فشار انطباق را به جای خرد استدلال انتقادی منعکس میکند. اما از آنجایی که مردم دوست دارند برای آنها تصمیم بگیرند، تمایل دارند این تصمیمات بد را بپذیرند و به تصمیم بعدی بروند. در نهایت، نه ما و نه هوش مصنوعی در نهایت عاقلتر نمیشویم!
اما و اگرهای متفکر بودن در عصر هوش مصنوعی
این اشتباه است که بگوییم هوش مصنوعی هیچ مزیتی برای جامعه ندارد. به احتمال زیاد در زمینههایی مانند امنیت سایبری، مراقبتهای بهداشتی و مالی که در آن مدلهای پیچیده و حجم عظیمی از دادهها باید بهطور معمول و سریع تجزیه و تحلیل شوند، چنین خواهد شد. با این حال، بیشتر تصمیمات روزانه ما به این نوع تحلیل نیاز ندارد؛ اما چه بخواهیم چه نخواهیم، بسیاری از ما قبلاً از هوش مصنوعی و کارهای انجام شده توسط آن مشاوره دریافت کردهایم، از سرگرمی و سفر گرفته تا تکالیف مدرسه، مراقبتهای بهداشتی و مالی. از این رو طراحان سخت در حال کار بر روی نسل بعدی هوش مصنوعی هستند که قادر خواهد بود بیشتر تصمیمات روزانه ما را خودکار کند، مسئلهای به نظر روانشناسان میتواند بسیار خطرناک باشد.
در دنیایی که به لطف الگوریتمهای رسانههای اجتماعی،تفکر مردم در حال حاضر تحت محاصره هستند. اگر به هوش مصنوعی اجازه دهیم به سطحی از پیچیدگی برسد، در معرض خطر قرارمیگیریم. از طرفی ما مدیون خود هستیم چرا که باید در برابر صدای آژیر هوش مصنوعی مقاومت کنیم و مالکیت امتیاز واقعی و مسئولیت انسان بودن را با «توانایی فکر کردن و انتخاب» از هوش مصنوعی پس بگیریم.
انتهای پیام/