مضرات هوش مصنوعی چیست؟
هوش مصنوعی در حال حاضر تأثیر عمیقی بر جامعه دارد ، تأثیراتی که با پیشرفته تر شدن فناوری نوید می بخشد حتی بیشتر شود. اما همه اینها تضمین شده است که مثبت باشد.
ما لیستی از 7 مضرات هوش مصنوعی خود را جمع آوری کرده ایم ، که همه ما باید مراقب آن باشیم.
1. بیکاری
با ترس روزافزون مبنی بر اینکه اتوماسیون و هوش مصنوعی شیوه کار ما را تغییر می دهند و مردم را به بیکاری وادار می کنند ، سؤالاتی در مورد جایگزین کردن مشاغل در آینده با ماشین ها ایجاد می شود. برخی از کارشناسان خاطرنشان می کنند که تغییرات احتمالی در مشاغل تا سال 2030 قریب الوقوع است ، تخمین می زند که بین 75 میلیون تا 375 میلیون کارگر (3 تا 14 درصد از نیروی کار جهانی) نیاز به تغییر شغل و یادگیری مهارت های جدید دارند. این نشان می دهد شکاف زیادی در پیش بینی ها ، از خوش بینانه تا بسیار بدبین است و برجسته می کند که بسیاری از کارشناسان بخش های فناوری و تجاری یک دیدگاه مشترک در مورد آینده بازار کار ما ندارند. به طور خلاصه: واقعاً سخت است که بگوییم چند شغل در واقع از بین می رود.
انتقال به دنیای خودکار تر برای بسیاری از کشورها یک چالش اساسی خواهد بود زیرا اطمینان از داشتن کارگران از مهارت و پشتیبانی لازم برای انتقال به مشاغل جدید ، چیزی آسان نیست. این امر به ویژه به این دلیل است که تأثیر اتوماسیون بیشتر برای مشاغل کم مهارت مانند کارهای اداری ، ساخت و ساز یا خدمات لجستیکی برجسته تر است. از این رو ، انتشار روباتیک و هوش مصنوعی به کاهش مشاغل موجود برای افراد کم تحصیلی کمک می کند و تأثیر منفی بر مشاغل کمتری دارد. این ضرر هوش مصنوعی می تواند منجر به رشد قطبش درآمدی و بیکاری گسترده شود. ناامنی اقتصادی - همانطور که از گذشته می دانیم - می تواند یک تهدید بزرگ برای دموکراسی های ما باشد و باعث از بین رفتن اعتماد به نهادهای سیاسی می شود ، اما همچنین از این سیستم نارضایتی می کند. در نتیجه ، شیوه تغییر AI نحوه کار ما می تواند راه را برای همدردی با احزاب پوپولیستی همدردی کند و شرایطی را برای ایجاد موضع تحقیرآمیز نسبت به دموکراسی های لیبرال نماینده ایجاد کند.
2. عدم شفافیت
AL از بسیاری جهات می تواند معیوب باشد ، به همین دلیل شفافیت بسیار مهم است. داده های ورودی را می توان با خطاها یا پاکسازی ضعیف گرفت. یا شاید دانشمندان و مهندسان داده ای که مدل را به طور سهواً مجموعه داده های مغرضانه را در وهله اول انتخاب کرده اند. اما با وجود بسیاری از موارد که می تواند اشتباه کند ، مشکل واقعی عدم دید است: عدم دانستن اینکه چرا هوش مصنوعی عملکرد ضعیفی دارد. یا گاهی اوقات حتی این کار ضعیف نیست. در یک توسعه کاربردی معمولی ، تضمین کیفیت و همچنین فرآیندها و ابزارهای آزمایش وجود دارد که می توانند به سرعت هرگونه اشکال را مشاهده کنند.
اما هوش مصنوعی فقط کد نیست ، مدل های اساسی فقط نمی توانند مورد بررسی قرار گیرند که اشکالات کجا هستند - برخی از الگوریتم های یادگیری ماشین غیر قابل توضیح هستند ، مخفی نگه داشته می شوند (همانطور که این به نفع تجاری تولید کنندگان آنها است) یا هر دو. این ما را به سمت درک محدود از تعصب یا گسل ها سوق می دهد که می تواند ایجاد کند. در ایالات متحده ، دادگاه ها برای تعیین "خطر" متهم برای ارتکاب جرم دیگر ، اجرای الگوریتم ها را آغاز کردند و تصمیمات مربوط به وثیقه ، مجازات و موقت را آگاه سازند. مشکل به گونه ای است که در مورد نحوه کار این ابزارها نظارت و شفافیت کمی وجود دارد.
این ابزارها بدون ضمانت های مناسب و بدون قوانین فدرال که استانداردها را تعیین کرده یا نیاز به بازرسی داشته باشد ، خطر از بین بردن حاکمیت قانون و کاهش حقوق فردی را دارد. به عنوان مثال ، در مورد متهم اریک لوومیس ، قاضی محاکمه حکم طولانی را به Loomis داد ، به دلیل نمره "پرخطر" که وی پس از پاسخ دادن به یک سری سؤالاتی که در آن زمان وارد Compas شد ، یک ابزار ارزیابی ریسک دریافت کرد. Compas یک ابزار ارزیابی ریسک جعبه سیاه است - قاضی یا هر کس دیگری برای آن موضوع ، مطمئناً نمی دانست که چگونه کامپاس به تصمیمی رسید که لومیس "ریسک بالا" برای جامعه است. برای همه ما می دانیم ، Compas ممکن است تصمیمات خود را بر اساس عواملی که فکر می کنیم ناعادلانه است ، پایه گذاری کند - ممکن است بدون دانستن ما نژادپرست ، آگیست یا جنسی باشد.
3. الگوریتم های مغرضانه و تبعیض آمیز
این ما را به موضوع بعدی هدایت می کند."تعصب" فقط یک مشکل اجتماعی یا فرهنگی نیست، به همان اندازه در حوزه فنی نیز دیده می شود. نقصهای طراحی یا دادههای معیوب و نامتعادل که به الگوریتمها وارد میشوند، میتوانند به نرمافزار و مصنوعات فنی مغرضانه منجر شوند. بنابراین هوش مصنوعی فقط تعصبات نژادی، جنسیتی و سنی را که از قبل در جامعه وجود دارد بازتولید می کند و نابرابری های اجتماعی و اقتصادی را عمیق تر می کند. احتمالاً چند سال پیش در مورد استخدام آزمایشی آمازون خوانده اید. این ابزار از هوش مصنوعی برای یافتن نامزدها از طریق رتبهبندی یک تا پنج ستاره استفاده میکرد - دقیقاً مانند رتبهبندی خریداران به محصولات در آمازون. این یک تبعیض علیه زنان بود، زیرا مدلهای کامپیوتری آمازون با مشاهده الگوهای موجود در رزومههای ارسال شده به شرکت در یک دوره 10 ساله، آموزش داده میشدند تا متقاضیان را بررسی کنند، و در واقع کاندیداهای مرد را ترجیح میدادند و رزومههایی را که شامل کلمه «زنان» بود جریمه میکردند.
علاوه بر مبنای دادههای مغرضانه، تیمهای توسعهدهنده غیرنماینده همگن نیز مشکلی را ایجاد میکنند. آنها با تنوع کم خود، نقاط کور فرهنگی و سوگیری های ناخودآگاه خود را در DNA فناوری می بافند. بنابراین، شرکت هایی که فاقد تنوع هستند، در معرض خطر توسعه محصولاتی هستند که مشتریان خود را حذف می کنند. چهار سال پیش، مطالعه ای نشان داد که برخی از برنامه های تشخیص چهره به اشتباه کمتر از 1 درصد از مردان با پوست روشن را طبقه بندی می کنند، اما بیش از یک سوم از زنان با پوست تیره را طبقه بندی می کنند. سازندگان ادعا کردند که این برنامه ماهر است، اما مجموعه داده هایی که برای ارزیابی عملکرد استفاده کردند، بیش از 77 درصد مرد و بیش از 83 درصد سفیدپوست بود.
4. پروفایل کردن
از هوش مصنوعی می توان برای ساختن پروفایل های دقیق ترسناکی از افراد استفاده کرد. الگوریتمها برای یافتن الگوها توسعه داده میشوند، بنابراین هنگام آزمایش تواناییهای آنها در جمعآوری دادههای شخصی در یک مسابقه، مشخص شد که آنها میتوانند با مشاهده تاریخچه موقعیت مکانی گذشته، مکان احتمالی آینده کاربر را پیشبینی کنند. این پیشبینی هنگام استفاده از دادههای موقعیت مکانی دوستان و مخاطبین اجتماعی حتی دقیقتر بود. گاهی اوقات این نقطه ضعف هوش مصنوعی کم اهمیت جلوه داده می شود. ممکن است فکر کنید که برایتان مهم نیست که چه کسی حرکات شما را می داند، بالاخره چیزی برای پنهان کردن ندارید. اول از همه، به احتمال زیاد این کاملا درست نیست. حتی اگر هیچ کار اشتباه یا غیرقانونی انجام ندهید، ممکن است نخواهید اطلاعات شخصی خود را در دسترس عموم قرار دهید. به هر حال، شما در خانه ای با دیوارهای شفاف حرکت نمی کنید. بنابراین آیا واقعاً اینطور است که به اشتراک گذاری تاریخچه مکان دستگاه خود اهمیتی نمی دهید؟درباره سابقه موقعیت مکانی دختر نوجوانتان چطور؟آیا واقعاً خیالتان راحت است که شخصی داده های موقعیت مکانی خود از جمله پیش بینی ها را منتشر کند؟مطمئنا نه. اطلاعات قدرت است و اطلاعاتی که از دست می دهیم قدرت بر ماست.
5. اطلاعات نادرست
افزایش اطلاعاتی ، ضرر هوش مصنوعی است که ما قبلاً شاهد آن هستیم. در سال 2020 ، گروه فعال Extinction Rebelion برای ایجاد سخنرانی داستانی نخست وزیر بلژیکی سوفی ویلمس ، یک عمیق ایجاد کرد. این گروه یک آدرس ویدیویی معتبر ساخته شده توسط ویلمس گرفت و از هوش مصنوعی برای دستکاری سخنان وی استفاده کرد. نتیجه: اطلاعاتی. در ویدئوی جعلی می توان Wilmès را در مورد Covid-19 صحبت کرد و ادعا کرد که این همه گیر مستقیماً با "بهره برداری و تخریب انسان های محیط طبیعی ما" مرتبط است. متأسفانه ، این تنها مورد نبوده است. Deepfakes به تدریج برای کمپین های اطلاعاتی هدفمند در آینده مورد استفاده قرار می گیرد و فرایندهای دموکراتیک ما را تهدید می کند و باعث قطبش اجتماعی می شود. افزودن به این موضوعات مربوط به اطلاعات غلط ، رباتهای آنلاین هستند ، که می توانند متون جعلی از جمله مقالات خبری تغییر یافته برای فشار آوردن دیدگاه های کلاهبرداری یا توییت ایجاد کنند. ابزار AI Language ، GPT-3 اخیراً توییت هایی را بیان کرده است که می گویند "آنها نمی توانند در مورد افزایش دما صحبت کنند زیرا دیگر اتفاق نمی افتد" ، با هدف ایجاد شک و تردید در مورد تغییرات آب و هوا. در سالهای اخیر با ترامپ دائماً رسانه ها را به عنوان جعلی فراخواند ، چنین فناوری هایی می توانند به معنای آن باشند که آتلانتیک "فروپاشی واقعیت". با وجود عمیق و ربات های آنلاین که اطلاعاتی را گسترش می دهد ، جامعه می تواند با خطوط مبهم بین واقعیت و داستان روبرو شود و اعتماد به نفس را به نهادهای سیاسی ما بی ثبات کند.
6. تأثیرات زیست محیطی
اگرچه هوش مصنوعی می تواند تأثیر محیطی مثبتی داشته باشد ، به عنوان مثال با فعال کردن شبکه های هوشمند برای مطابقت با تقاضای الکتریکی یا فعال کردن شهرهای هوشمند و کم کربن. با این حال ، یکی از مضرات هوش مصنوعی این است که به دلیل استفاده شدید از انرژی می تواند باعث آسیب دیدگی محیطی قابل توجهی شود. یک مطالعه 2019 نشان داد که یک نوع خاص از هوش مصنوعی (یادگیری عمیق در پردازش زبان طبیعی) به دلیل سوخت سخت افزاری که به آن نیاز دارد ، دارای یک ردپای کربن عظیم است. کارشناسان می گویند که آموزش یک مدل AI واحد 300000 کیلوگرم از انتشار CO2 معادل 125 پرواز سفر دور از NYC به پکن یا 5 برابر انتشار عمر یک ماشین متوسط (آمریکایی) تولید می کند. و آموزش مدل ها البته تنها منبع انتشار گازهای گلخانه ای نیست. تأثیر کربن زیرساخت های مربوط به استقرار Big Tech از هوش مصنوعی نیز قابل توجه است: مراکز داده باید ساخته شوند و مواد مورد استفاده باید استخراج و حمل شوند.
به فناوری بزرگ توجه داشته باشید. ثبت نام!
7. سلطه شرکتهای بزرگ فناوری
هوش مصنوعی تحت سلطه شرکت های بزرگ فناوری است. از سال 2007 ، Google حداقل 30 شرکت هوش مصنوعی را خریداری کرده است که روی همه چیز کار می کنند ، از شناخت تصویر گرفته تا صدای رایانه های انسانی بیشتر - ساخت انحصار عظیمی از فناوری هوش مصنوعی. اما Google تنها دروازه بان نیست. در سال 2016 ، Google ، Apple ، Facebook ، Microsoft و Amazon به همراه Megaplayers چینی تا 30 میلیارد دلار از کل تخمین زده شده جهانی 39 میلیارد دلار در تحقیقات ، توسعه و توسعه مربوط به هوش مصنوعی هزینه کردند. کسبشرکت هایی که شروع به کار در سطح جهانی می کنند خطرناک است ، زیرا در نتیجه آنها نقش بزرگی را برای تعیین جهت فناوری AI ایفا می کنند. این شرکت ها با تسلط در جستجو ، رسانه های اجتماعی ، خرده فروشی آنلاین و فروشگاه های برنامه ، داده های کاربر را نزدیک دارند و در حال تبدیل شدن به تأمین کنندگان اصلی هوش مصنوعی برای همه افراد دیگر در صنعت هستند. چنین غلظت قدرت خطرناک است ، زیرا شرکت های عظیمی از فناوری را که به دولت های منتخب دموکراتیک دیکته می کنند ، خطرناک می کند.
اعتبار عکس: Alena Darmel ، Anastasia Shuraeva ، Darina Belonogova ، Keira Burton ، Ron Lach ، Tim Douglas ، Vazhnik /pexels. com