نیمه نامرئی فناوری؛ آیا هوش مصنوعی قدرت تفکر را از انسان میگیرد؟
تاریخ انتشار: ۲۶ فروردین ۱۴۰۳ | کد خبر: ۴۰۱۱۸۶۷۲
خبرگزاری علم و فناوری آنا؛ همانطور که هوش مصنوعی بیشتر و بیشتر به زندگی روزمره مردم نفوذ میکند، نگرانی در مورد آن نیز افزایش مییابد. بیشترین نگرانیها در مورد سرکشی شدن هوش مصنوعی و خاتمه دادن به اربابان انسانی آن است.
اما در پس درخواستها برای توقف توسعه هوش مصنوعی مجموعهای از آسیبهای اجتماعی ملموستر وجود دارد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
اما تحقیقات روانشناسانی که نحوه تصمیمگیری افراد را مطالعه میکنند، آنها را به این باور رسانده است که همه این خطرات تحت الشعاع تهدیدی عمیقتر و عمدتاً نامرئیتر هستند. به این معنا که هوش مصنوعی تنها یک کلید ساده است که باعث میشود افراد در تصمیمگیریهای متفکرانه ضعیفترعمل کنند.
تصمیمگیری متفکرانه چه مراحلی دارد؟
فرآیند تصمیم گیری متفکرانه شامل سه مرحله عقل سلیم است که با صرف زمان برای درک کار یا مشکلی که با آن روبرو هستید آغاز میشود. از خود بپرسید، چه چیزی را باید بدانید، و چه کاری باید انجام دهید تا تصمیمی بگیرید که بعداً بتوانید با اطمینان و اطمینان از آن دفاع کنید؟
پاسخ به این سؤالات وابسته به جستجوی فعالانه اطلاعاتی است که هم شکافهای دانش شما را پر میکند و هم باورها و مفروضات قبلی شما را به چالش میکشد. در واقع، این اطلاعات خلاف واقع احتمالات جایگزینی هستند که وقتی افراد خود را از مفروضات خاص رها میکنند، ظاهر میشوند و در نهایت شما را برای دفاع از تصمیمهایتان در هنگام انتقاد تجهیز میکنند.
مرحله دوم جستجو و در نظر گرفتن بیش از یک گزینه است. آیا میخواهید کیفیت زندگی خود را بهبود بخشید؟ فرقی نمیکند به چه کسی رای میدهید، شغلهایی که میپذیرید یا چیزهایی که میخرید، همیشه بیش از یک راه وجود دارد که شما را به آنجا میرساند. تلاش برای در نظر گرفتن فعالانه و رتبه بندی حداقل چند گزینه معقول در میان مزایا و معایب آنها نشانه انتخاب متفکرانه و قابل دفاع است.
مرحله سوم این است که مایل باشید بسته شدن یک تصمیم را تا زمانی که تمام کارهای سنگین ذهنی لازم را انجام دادهاید به تعویق بیندازید. به این معنی که شما یک تصمیم دشوار یا مهم را پشت سر گذاشتهاید؛ اما هزینه حرکت پیش از موعد میتواند بسیار بیشتر از وقت گذاشتن برای انجام تکالیف باشد؛ زیرا زمانی را برای فکر کردن بیشتر اختصاص ندادهاید.
خطرات برون سپاری تصمیمات به هوش مصنوعی
هوش مصنوعی فرصت تمرین فرآیند تصمیم گیری متفکرانه و قابل دفاع را از مردم سلب میکندبرداشتن هیچ یک از این سه مرحله خیلی سخت نیست. اما، برای بیشتر افراد شهودی نیست. اتخاذ تصمیمات متفکرانه و قابل دفاع نیازمند تمرین و انضباط شخصی است؛ و این جایی است که آسیب پنهانی که هوش مصنوعی افراد را در معرض آن قرار میدهد ظاهر میشود: هوش مصنوعی بیشتر «تفکر» خود را در پشت صحنه انجام میدهد و پاسخهایی را به کاربران ارائه میدهد که فاقد زمینه و تامل هستند. بدتر از آن، هوش مصنوعی فرصت تمرین فرآیند تصمیم گیری متفکرانه و قابل دفاع را از مردم سلب میکند.
در نظر بگیرید که امروزه مردم چگونه به بسیاری از تصمیمات مهم برخورد میکنند. انسانها بهخاطر این که مستعد طیف گستردهای از سوگیریها هستند، به خوبی شناخته شدهاند، زیرا در هنگام صرف انرژی ذهنی، ما معمولاً صرفهجویی میکنیم. این صرفه جویی باعث میشود که مردم وقتی تصمیمات به ظاهر خوب یا قابل اعتمادی برای آنها گرفته میشود، آن را دوست داشته باشند. از آنجایی که انسانها موجوداتی اجتماعی هستند بیشتر از اینکه برای خودمختاری خود ارزش قائل باشند، برای امنیت و پذیرش جوامع خود ارزش قائل میشوند.
حالا هوش مصنوعی را به این ترکیب اضافه کنید. نتیجه آن یک بازخورد خطرناک است: دادههایی که هوش مصنوعی استخراج میکند تا الگوریتمهای خود را تقویت کند، از تصمیمهای مغرضانه افراد تشکیل شده است که همچنین فشار انطباق را به جای خرد استدلال انتقادی منعکس میکند. اما از آنجایی که مردم دوست دارند برای آنها تصمیم بگیرند، تمایل دارند این تصمیمات بد را بپذیرند و به تصمیم بعدی بروند. در نهایت، نه ما و نه هوش مصنوعی در نهایت عاقلتر نمیشویم!
اما و اگرهای متفکر بودن در عصر هوش مصنوعی
این اشتباه است که بگوییم هوش مصنوعی هیچ مزیتی برای جامعه ندارد. به احتمال زیاد، در زمینههایی مانند امنیت سایبری، مراقبتهای بهداشتی و مالی، که در آن مدلهای پیچیده و حجم عظیمی از دادهها باید بهطور معمول و سریع تجزیه و تحلیل شوند، چنین خواهد شد. با این حال، بیشتر تصمیمات روزانه ما به این نوع تحلیل نیاز ندارد.
اما چه بخواهیم چه نخواهیم، بسیاری از ما قبلاً از هوش مصنوعی و کارهای انجام شده توسط آن مشاوره دریافت کردهایم، از سرگرمی و سفر گرفته تا تکالیف مدرسه، مراقبتهای بهداشتی و مالی. از این رو طراحان سخت در حال کار بر روی نسل بعدی هوش مصنوعی هستند که قادر خواهد بود بیشتر تصمیمات روزانه ما را خودکار کند، مسئلهای به نظر روانشناسان میتواند بسیار خطرناک باشد.
در دنیایی که به لطف الگوریتمهای رسانههای اجتماعی،تفکر مردم در حال حاضر تحت محاصره هستند. اگر به هوش مصنوعی اجازه دهیم به سطحی از پیچیدگی برسد، در معرض خطر قرارمیگیریم. از طرفی ما مدیون خود هستیم چرا که باید در برابر صدای آژیر هوش مصنوعی مقاومت کنیم و مالکیت امتیاز واقعی و مسئولیت انسان بودن را با «توانایی فکر کردن و انتخاب» از هوش مصنوعی پس بگیریم.
انتهای پیام/
منبع: آنا
کلیدواژه: هوش مصنوعی تفکر فکر کردن خطرات هوش مصنوعی تصمیم گیری هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت ana.press دریافت کردهاست، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۱۱۸۶۷۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی گرایش سیاسی افراد را از چهرهشان میخواند
ایتنا - مطالعهای جدید میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی میتواند گرایش سیاسی افراد را از روی چهرههای بدون حالت و بیاحساس پیشبینی کند، محققان هشدار دادند که فناوریهای تشخیص چهره از آنچه قبلا به نظر میرسید، «تهدیدآمیزتر» شده و برای حریم خصوصی چالش جدی به وجود آوردهاند.
مطالعهای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکتکننده قبل از آنکه هوش مصنوعی آنها را چهرهنگاری (استخراج اطلاعات مخصوص و منحصربهفرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامهای درباره گرایش سیاسی خود پر کردند. سپس دادههای چهرهنگاری را با پاسخ پرسشنامههای جهتگیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهرهها به دست آورده بود، جهتگیری سیاسی هر شخص را پیشبینی کند.
کوزینسکی میگوید: «فکر میکنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصیشان را برای دیگران فاش میکنند.»
او افزود: «ما میدانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما میتوانستید به حساب کاربری فیسبوک افراد وارد شوید و به عنوان مثال گرایشهای سیاسی، آنچه را که پسند میکنند (لایک میزنند) و صفحاتی را که دنبال کردهاند، ببینید. اما فیسبوک سالها پیش آن را بست زیرا برای سیاستگذاران، فیسبوک و روزنامهنگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»
کوسینسکی افزود: «در حال حاضر نیز هر کس میتواند به فیسبوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچوقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان میدهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهتگیری سیاسی آنها باشد.»
محققان میگویند که تصاویر افراد شرکتکننده در این پژوهش را در شرایطی بسیار مشخص و کنترلشده جمعآوری کردند. به این ترتیب که این افراد همگی تیشرتهای مشکی پوشیده و زیورآلاتشان را در آورده بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهرهها را از طریق الگوریتم چهره ویجیجی فیس۲ (VGGFace2) بررسی کردند.
محققان هشدار میدهند که فناوریهای نظارت بیومتریکی، به ویژه فناوریهای تشخیص چهره، تهدیدی جدیتر از گذشته برای حریم شخصی افرادند. پژوهشهای پیشتر نیز نشان داده بودند که تصاویر طبیعی چهره میتواند اطلاعات مهمی را درباره جهتگیری سیاسی و ویژگیهای شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیشبینیها به دلیل نحوه ارائه شخص و ویژگیهای ثابت چهره (خنثی) فعال شدهاند یا هر دو این عوامل. محققان میگویند، نتایج ما نشان میدهند که ویژگیهای ثابت چهره در انتقال این سیگنالها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاههای نظارتی میرسد.
به گفته کوزینسکی، این الگوریتمها را میتوان بسیار سریع و ارزان برای میلیونها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوریهایی است که در گوشیها وجود دارد و به طور گسترده در همهجا استفاده میشود.