Web Analytics Made Easy - Statcounter

خبرگزاری علم و فناوری آنا؛ همانطور که هوش مصنوعی بیشتر و بیشتر به زندگی روزمره مردم نفوذ می‌کند، نگرانی در مورد آن نیز افزایش می‌یابد. بیش‌ترین نگرانی‌ها در مورد سرکشی شدن هوش مصنوعی و خاتمه دادن به اربابان انسانی آن است.

اما در پس درخواست‌ها برای توقف توسعه هوش مصنوعی مجموعه‌ای از آسیب‌های اجتماعی ملموس‌تر وجود دارد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

خطراتی که هوش مصنوعی برای حریم خصوصی و حیثیت افراد ایجاد می‌کند یک واقعیت اجتناب‌ناپذیر است؛ از آنجایی که الگوریتم‌های زیر کلاه هوش مصنوعی توسط انسان برنامه‌ریزی شده‌اند، به همان اندازه می‌تواند تبعیض‌آمیز باشد. این‌روزها عدم شفافیت در مورد سازندگان و نحوه طراحی هوش مصنوعی و توسط این افراد، باعث شده است به اندازه پتانسیل هوش مصنوعی زمان زیادی به بحث در مورد خطرات آن اختصاص داده شود.

هوش مصنوعی تنها یک کلید ساده است که باعث می‌شود افراد در تصمیم‌گیری‌های متفکرانه ضعیف‌ترعمل کنند

اما تحقیقات روانشناسانی که نحوه تصمیم‌گیری افراد را مطالعه می‌کنند، آن‌ها را به این باور رسانده است که همه این خطرات تحت الشعاع تهدیدی عمیق‌تر و عمدتاً نامرئی‌تر هستند. به این معنا که هوش مصنوعی تنها یک کلید ساده است که باعث می‌شود افراد در تصمیم‌گیری‌های متفکرانه ضعیف‌ترعمل کنند.

تصمیم‌گیری متفکرانه چه مراحلی دارد؟

فرآیند تصمیم گیری متفکرانه شامل سه مرحله عقل سلیم است که با صرف زمان برای درک کار یا مشکلی که با آن روبرو هستید آغاز می‌شود. از خود بپرسید، چه چیزی را باید بدانید، و چه کاری باید انجام دهید تا تصمیمی بگیرید که بعداً بتوانید با اطمینان و اطمینان از آن دفاع کنید؟

پاسخ به این سؤالات وابسته به جستجوی فعالانه اطلاعاتی است که هم شکاف‌های دانش شما را پر می‌کند و هم باور‌ها و مفروضات قبلی شما را به چالش می‌کشد. در واقع، این اطلاعات خلاف واقع احتمالات جایگزینی هستند که وقتی افراد خود را از مفروضات خاص رها می‌کنند، ظاهر می‌شوند و در نهایت شما را برای دفاع از تصمیم‌هایتان در هنگام انتقاد تجهیز می‌کنند.

مرحله دوم جستجو و در نظر گرفتن بیش از یک گزینه است. آیا می‌خواهید کیفیت زندگی خود را بهبود بخشید؟ فرقی نمی‌کند به چه کسی رای می‌دهید، شغل‌هایی که می‌پذیرید یا چیز‌هایی که می‌خرید، همیشه بیش از یک راه وجود دارد که شما را به آنجا می‌رساند. تلاش برای در نظر گرفتن فعالانه و رتبه بندی حداقل چند گزینه معقول در میان مزایا و معایب آنها نشانه انتخاب متفکرانه و قابل دفاع است.

مرحله سوم این است که مایل باشید بسته شدن یک تصمیم را تا زمانی که تمام کار‌های سنگین ذهنی لازم را انجام داده‌اید به تعویق بیندازید. به این معنی که شما یک تصمیم دشوار یا مهم را پشت سر گذاشته‌اید؛ اما هزینه حرکت پیش از موعد می‌تواند بسیار بیشتر از وقت گذاشتن برای انجام تکالیف باشد؛ زیرا زمانی را برای فکر کردن بیشتر اختصاص نداده‌اید.

خطرات برون سپاری تصمیمات به هوش مصنوعی

هوش مصنوعی فرصت تمرین فرآیند تصمیم گیری متفکرانه و قابل دفاع را از مردم سلب می‌کند

برداشتن هیچ یک از این سه مرحله خیلی سخت نیست. اما، برای بیشتر افراد شهودی نیست. اتخاذ تصمیمات متفکرانه و قابل دفاع نیازمند تمرین و انضباط شخصی است؛ و این جایی است که آسیب پنهانی که هوش مصنوعی افراد را در معرض آن قرار می‌دهد ظاهر می‌شود: هوش مصنوعی بیشتر «تفکر» خود را در پشت صحنه انجام می‌دهد و پاسخ‌هایی را به کاربران ارائه می‌دهد که فاقد زمینه و تامل هستند. بدتر از آن، هوش مصنوعی فرصت تمرین فرآیند تصمیم گیری متفکرانه و قابل دفاع را از مردم سلب می‌کند.

در نظر بگیرید که امروزه مردم چگونه به بسیاری از تصمیمات مهم برخورد می‌کنند. انسان‌ها به‌خاطر این که مستعد طیف گسترده‌ای از سوگیری‌ها هستند، به خوبی شناخته شده‌اند، زیرا در هنگام صرف انرژی ذهنی، ما معمولاً صرفه‌جویی می‌کنیم. این صرفه جویی باعث می‌شود که مردم وقتی تصمیمات به ظاهر خوب یا قابل اعتمادی برای آنها گرفته می‌شود، آن را دوست داشته باشند. از آنجایی که انسان‌ها موجوداتی اجتماعی هستند بیشتر از اینکه برای خودمختاری خود ارزش قائل باشند، برای امنیت و پذیرش جوامع خود ارزش قائل می‌شوند.

حالا هوش مصنوعی را به این ترکیب اضافه کنید. نتیجه آن یک بازخورد خطرناک است: داده‌هایی که هوش مصنوعی استخراج می‌کند تا الگوریتم‌های خود را تقویت کند، از تصمیم‌های مغرضانه افراد تشکیل شده است که همچنین فشار انطباق را به جای خرد استدلال انتقادی منعکس می‌کند. اما از آنجایی که مردم دوست دارند برای آنها تصمیم بگیرند، تمایل دارند این تصمیمات بد را بپذیرند و به تصمیم بعدی بروند. در نهایت، نه ما و نه هوش مصنوعی در نهایت عاقل‌تر نمی‌شویم!


اما و اگرهای متفکر بودن در عصر هوش مصنوعی

این اشتباه است که بگوییم هوش مصنوعی هیچ مزیتی برای جامعه ندارد. به احتمال زیاد، در زمینه‌هایی مانند امنیت سایبری، مراقبت‌های بهداشتی و مالی، که در آن مدل‌های پیچیده و حجم عظیمی از داده‌ها باید به‌طور معمول و سریع تجزیه و تحلیل شوند، چنین خواهد شد. با این حال، بیشتر تصمیمات روزانه ما به این نوع تحلیل نیاز ندارد.

اما چه بخواهیم چه نخواهیم، ​​بسیاری از ما قبلاً از هوش مصنوعی  و کار‌های انجام شده توسط آن مشاوره دریافت کرده‌ایم، از سرگرمی و سفر گرفته تا تکالیف مدرسه، مراقبت‌های بهداشتی و مالی. از این رو طراحان سخت در حال کار بر روی نسل بعدی هوش مصنوعی هستند که قادر خواهد بود بیشتر تصمیمات روزانه ما را خودکار کند، مسئله‌ای به نظر روانشناسان می‌تواند بسیار خطرناک باشد.

در دنیایی که به لطف الگوریتم‌های رسانه‌های اجتماعی،تفکر مردم در حال حاضر تحت محاصره هستند. اگر به هوش مصنوعی اجازه دهیم به سطحی از پیچیدگی برسد، در معرض خطر قرارمی‌گیریم. از طرفی ما مدیون خود هستیم چرا که باید در برابر صدای آژیر هوش مصنوعی مقاومت کنیم و مالکیت امتیاز واقعی و مسئولیت انسان بودن را با «توانایی فکر کردن و انتخاب» از هوش مصنوعی پس بگیریم.

انتهای پیام/

منبع: آنا

کلیدواژه: هوش مصنوعی تفکر فکر کردن خطرات هوش مصنوعی تصمیم گیری هوش مصنوعی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت ana.press دریافت کرده‌است، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۱۱۸۶۷۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند

ایتنا - مطالعه‌ای جدید می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی می‌تواند گرایش سیاسی افراد را از روی چهره‌های بدون حالت و بی‌احساس پیش‌بینی کند، محققان هشدار داد‌‌ند که فناوری‌های تشخیص چهره از آنچه قبلا به نظر می‌رسید، «تهدیدآمیزتر» شده‌‌ و برای حریم خصوصی چالش جدی به وجود آورده‌اند.  

مطالعه‌ای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.

به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکت‌کننده قبل از آنکه هوش مصنوعی آنها را چهره‌نگاری (استخراج اطلاعات مخصوص و منحصربه‌فرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامه‌‌ای درباره گرایش سیاسی خود پر کردند. سپس داده‌های چهره‌نگاری را با پاسخ‌ پرسشنامه‌های جهت‌گیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهره‌ها به دست آورده بود، جهت‌گیری سیاسی هر شخص را پیش‌بینی کند.

کوزینسکی می‌گوید: «فکر می‌کنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصی‌شان را برای دیگران فاش می‌کنند.»

او افزود: «ما می‌دانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما می‌توانستید به حساب کاربری فیس‌بوک افراد وارد شوید و به عنوان مثال گرایش‌های سیاسی، آنچه را که پسند می‌کنند (لایک می‌زنند) و صفحاتی را که دنبال کرده‌اند، ببینید. اما فیس‌بوک سال‌ها پیش آن را بست زیرا برای سیاست‌گذاران، فیس‌بوک و روزنامه‌نگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»

کوسینسکی افزود: «در حال حاضر نیز هر کس می‌تواند به فیس‌بوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچ‌وقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان می‌دهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهت‌گیری سیاسی آن‌ها باشد.»

محققان می‌گویند که تصاویر افراد شرکت‌کننده در این پژوهش را در شرایطی بسیار مشخص و کنترل‌شده جمع‌آوری کردند. به این ترتیب که این افراد همگی تی‌شرت‌های مشکی‌ پوشیده و زیور‌آلاتشان را در آورده‌ بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهره‌ها را از طریق الگوریتم چهره وی‌جی‌جی فیس۲ (VGGFace2) بررسی کردند.

محققان هشدار می‌دهند که فناوری‌های نظارت بیومتریکی، به ویژه فناوری‌های تشخیص چهره، تهدیدی جدی‌تر از گذشته برای حریم شخصی افرادند. پژوهش‌های پیش‌تر نیز نشان داده بودند که تصاویر طبیعی چهره می‌تواند اطلاعات مهمی را درباره جهت‌گیری سیاسی و ویژگی‌های شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیش‌بینی‌ها به دلیل نحوه ارائه شخص و ویژگی‌های ثابت چهره (خنثی) فعال شده‌اند یا هر دو این عوامل. محققان می‌گویند، نتایج ما نشان می‌دهند که ویژگی‌های ثابت چهره در انتقال این سیگنال‌ها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاه‌های نظارتی می‌رسد.

به گفته کوزینسکی، این الگوریتم‌ها را می‌توان بسیار سریع و ارزان برای میلیون‌ها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوری‌هایی است که در گوشی‌ها وجود دارد و به طور گسترده در همه‌جا استفاده می‌شود. 

دیگر خبرها

  • محققان: با هوش مصنوعی می‌توان آرتروز را ۸ سال زودتر پیش‌بینی کرد
  • زلنسکی مجوز نقض حقوق بشر در جنگ اوکراین را از اروپا می‌گیرد
  • هوش مصنوعی نخستین طلایی ایران در المپیک را پیش‌بینی کرد | پادشاه ایرانی کشتی جهان باز هم طلا می‌گیرد
  • چین از مدل هوش مصنوعی تبدیل متن به ویدئو رونمایی کرد
  • خطا روی کریستیانو رونالدو توسط بازیکن نامرئی! / فیلم
  • هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند
  • توسعه فعالیت‌‌های فرهنگی حوزه عفاف و حجاب در مرکزی
  • چرا چپ دست یا راست دست به دنیا می‌آییم؟
  • هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد
  • انتشار جزئیاتی بیشتر از هوش‌مصنوعی آیفون/ پای غول‌های فناوری در میان می‌آید!