حاکم بر فن آوری های نوظهور یکی از مهمترین موضوعات قرن بیست و یکم است و در درجه اول مربوط به ابتکارات عمومی ، خصوصی و اجتماعی است که می تواند پذیرش و توسعه مسئولانه فن آوری های دیجیتال را شکل دهد. این مطالعه از منظره نوظهور حاکمیت blockchain و هوش مصنوعی (AI) بررسی می کند و اکوسیستم سیستم عامل های نوظهور را در صنعت و جامعه عمومی و مدنی ترسیم می کند. ما بازیکنان اصلی سازمان های عمومی ، خصوصی و جامعه مدنی و انگیزه های اساسی آنها را شناسایی می کنیم و واگرایی و همگرایی این انگیزه ها و روشی را که احتمالاً آنها را شکل می دهند ، حاکمیت آینده این فناوری های نوظهور را بررسی می کنیم. اجماع گسترده ای وجود دارد که این فناوری ها نشان دهنده حال و آینده رشد اقتصادی است ، اما خطرات قابل توجهی برای جامعه نیز ایجاد می کند. در واقع ، سردرگمی و اختلاف نظر قابل توجهی بین بازیکنان اصلی در مورد پیمایش تعادل ظریف بین ارتقاء این نوآوری ها و کاهش خطرات ناشی از آنها وجود دارد. در حالی که برخی از این صنعت خواستار خود تنظیم هستند ، برخی دیگر خواستار قوانین قوی و تنظیم دولت برای نظارت بر این فناوری ها هستند. این اختلافات ، احتمالاً برای آینده قابل پیش بینی باقی مانده و ممکن است توسعه بهینه اکوسیستم های حاکمیتی را در حوزه های قضایی منحرف کند. بنابراین ، ما پیشنهاد می کنیم که بازیکنان باید در نظر بگیرند که حفاظت های جدید و استفاده از چارچوب های موجود را برای محافظت از مصرف کنندگان و جامعه در برابر مضرات و خطرات این فناوری ها در نظر بگیرند. به عنوان مثال ، از طریق بررسی مجدد ترتیبات حقوقی و نهادی موجود برای بررسی اینکه آیا این موارد برای مشکلات نوظهور با فناوری های جدید ارائه می شود ، و در صورت لزوم ، به روزرسانی/اصلاحات لازم را انجام می دهد. علاوه بر این ، ممکن است مواردی وجود داشته باشد که سیستم های قانونی و تنظیم شده موجود کاملاً منسوخ شده باشند و نمی توانند برای فناوری های جدید پوشش دهند ، به عنوان مثال ، هنگامی که از هوش مصنوعی برای تأثیرگذاری بر نتایج سیاسی یا کلاهبرداری ارز رمزنگاری شده یا وسایل نقلیه خودمختار AI ، چنین مواردی استفاده می شود. فراخوان رژیم های حاکمیت چابک. این مهم است زیرا بازیکنان مختلف در دولت ، صنعت و مدنی هنوز با چالش های حاکمیتی که این فناوری های نوظهور برای جامعه مطرح می کنند ، مطابقت دارند و هیچ کس پاسخ روشنی در مورد روش بهینه برای ارتقاء این فناوری ها ، در همان زمان محدودیت ندارد. خطراتی که آنها برای کاربران ایجاد می کنند.
مقدمه
چهارمین فناوری های انقلاب صنعتی (4IR) ، مانند blockchain و هوش مصنوعی (AI) ، به سرعت توسط صنعت و دولت ها در سراسر جهان اتخاذ می شوند و مصرف کنندگان از خدماتی استفاده می کنند که هر روز به این فناوری ها بستگی دارد. افزایش پذیرش blockchain و هوش مصنوعی منجر به تغییرات گسترده در هر جنبه ای از زندگی بشر شده است-از گرفتن شغل برای حفظ آن. از نحوه ارتباط مردم و با چه کسی به مردم چه تاریخ می کنند. از چگونگی حفظ امنیت پلیس ما را برای چه کسی زندانی می کند و چه کسی آزاد می شود ، از جمله بسیاری دیگر از موارد استفاده (شرکت مک کینزی ، 2019) - فرآیندهای تجاری صنایع سنتی تقریباً در هر بخش را تشدید می کند (Quintais et al. ، 2019).
با این حال ، افزایش اتخاذ این فن آوری های دیجیتال همچنین چالش های جدید و بی سابقه ای از جمله نقض حریم خصوصی ، کلاهبرداری دیجیتال ، اشکال جدید پولشویی ، تعصب و تبعیض شدید ، مسائل ایمنی و مسئولیت جدید ، بیکاری مربوط به فناوری ، نظارت گسترده ، نظارت گستردهپتانسیل جنگهای مخرب روبات (دمپسی ، 2020) و قطبش بازار (Acemoglu and Restrepo ، 2020) ، از جمله دیگر. این فن آوری ها یک جعبه پاندورا از موضوعات حقوقی ، اخلاقی ، سیاست ، نظارتی و حاکمیتی را که در حال حاضر توسط بسیاری از بازیگران دولت ، صنعت و جامعه مدنی مورد توجه قرار گرفته است ، باز کرده است.
بنابراین ، مسئله حاکم بر 1 فن آوری های دیجیتالی مختل کننده (ما به طور گسترده حاکمیت را به عنوان روش های نظارت بر فن آوری های دولتی و خصوصی برای ارتقاء نوآوری های دیجیتالی بالقوه و کاهش خطرات ناشی از این نوآوری ها تعریف می کنیم) ، به یکی از مهمترین سؤالات مربوط به سؤالات مهمترینقرن بیست و یکم (وینفیلد و جیروتکا ، 2018). حاکمیت فقط مربوط به کاهش خطرات فن آوری های نوظهور نیست. همچنین در مورد ایجاد تغییراتی است تا اطمینان حاصل شود که فن آوری های نوظهور می توانند از نظر قانونی مستقر شوند و پتانسیل های کامل آنها به حداکثر برسد. از سال 2017 ، ما شاهد بحث و گفتگو جهانی (Pagallo ، 2018) در عرصه های خصوصی ، عمومی ، دانشگاهی و اجتماعی در زمینه مدیریت فن آوری های دیجیتال بودیم (وینفیلد و جیروتکا ، 2018). به عنوان مثال ، در این دوره ، جامعه مدنی و سیستم عامل های بین دولتی بیش از 200 اصل هوش مصنوعی را منتشر کرده اند که از توسعه دهندگان هوش مصنوعی می خواهد "اخلاق را با اصول طراحی" اتخاذ کنند ، در حالی که تنظیم کننده ها ابراز نگرانی های شدیدی در مورد سوء استفاده احتمالی از برنامه های کاربردی با استفاده از blockchain ، ماننددارایی های رمزنگاری.
در صنعت ، بحث و گفتگو مداوم بین کارآفرینان و سهامداران و "شرکتهای Bigtech" وجود دارد که برخی خواستار تنظیم فن آوری های دیجیتال هستند (BBC ، 2020) ، در حالی که سایر شرکت های فناوری مشتاق هستند که از نوآوری های خود در برابر تنظیم مقررات محافظت کنند. بسیاری از شرکت های فناوری اصول اخلاقی خود را منتشر کرده اند (جوبین و همکاران ، 2019) و کمیته های اخلاق تأسیس شده اند. علاوه بر این ، مشارکت در AI (PAI) و انجمن blockchain-انجمن های صنعت در حمایت از توسعه مسئولانه فن آوری های نوظهور-اخیراً به عنوان تلاش برای ارتقاء خود تنظیم و تأثیرگذاری بر سیاست های عمومی آغاز شد تا نوآوری ها بتوانند شکوفا شوند.
علاوه بر این ، بخش دولتی در حال پاسخ دادن به ترکیبی متنوع از چارچوب های حاکمیتی با هدف ترویج نوآوری های دیجیتال و محافظت در برابر خطرات آنها ممکن است در جامعه باشد (OECD ، 2019). تنها در 2 سال گذشته ، تقریباً همه کشورهای اصلی سیاست های دیجیتالی و برنامه های سرمایه گذاری را با هدف ارتقاء نوآوری های دیجیتال منتشر کرده اند. علاوه بر این ، برخی ، مانند کره جنوبی و انگلیس ، در مورد ماسهبازی های نظارتی (ابزارهای نظارتی که به مبتکران اجازه می دهد تا نوآوری های خود را تحت مقررات و نظارت حداقل و کنترل شده به بازار آزمایش و معرفی کنند) آزمایش کرده اند (سازمان رفتار مالی ، 2015). در همین مدت ، کشورها بیش از 450 پیشنهاد نظارتی را هدف قرار داده اند که نوآوری های دیجیتالی را هدف قرار می دهد ، بیش از 200 تنها در اروپا (هوگان لاولز ، 2019). تضاد یا پارادوکس در دولت هایی که مایل به سرمایه گذاری در نوآوری های دیجیتال هستند و در عین حال انتظار برای تنظیم فن آوری های دیجیتالی را دارد ، آشکار است و باعث ایجاد احساس سردرگمی در مورد چگونگی بهتر اداره این فن آوری های نوظهور در تمام حوزه های قضایی اصلی می شود.
در میان این بحث ، تنها مطالعات معدودی بر روی سیستم عامل های نوظهور برای حاکمیت نوآوری دیجیتال متمرکز شده است. برخی از محققان بیشتر بر حاکمیت اخلاقی فن آوری های نوظهور متمرکز شده اند. به عنوان مثال ، وینفیلد و جیروتکا (2018) چارچوبی را ارائه دادند که حاکمیت اخلاقی هوش مصنوعی و روباتیک را راهنمایی می کند ، نشان می دهد که چگونه اخلاق به استانداردها تغذیه می شود ، که به نوبه خود منجر به مقررات می شود (وینفیلد و جیروتکا ، 2018). علاوه بر این ، CATH (2018) سؤال حاکم بر فن آوری های پرخطر و چارچوب های مناسب را مورد مطالعه قرار داد و پیشنهاداتی را در مورد مدیریت فناوری دیجیتال ارائه داد. یکی دیگر از متخصصان ، Etzioni 2 ، چارچوبی از سه قانون را برای مقررات هوش مصنوعی پیشنهاد کرد: هوش مصنوعی باید در معرض قوانین موجود باشد ، که باید متناسب با سیستم های هوش مصنوعی به روز شود. سیستم های هوش مصنوعی باید کاملاً فاش کنند که آنها انسانی نیستند. و سیستم های هوش مصنوعی بدون اجازه صریح آنها نباید اطلاعات خصوصی کاربران را نگه داشته یا منتشر کنند. به همین ترتیب ، تاکاناشی و همکاران.(2020) خواستار ایجاد ذینفعان متعدد برای ایجاد مکانیسم های حاکمیتی برای فن آوری های نوظهور ، و (Feijóo و همکاران ، 2020) سیستم عامل های نوظهور را برجسته کردند و خواستار دیپلماسی فناوری شدند. مشارکت آنها در پاسخ به سؤالات مهم در مورد حاکمیت فناوری نوظهور مهم است.
با این حال ، ما هنوز می یابیم که نقش سیستم عامل های حاکمیت فناوری در حال ظهور در عرصه های جامعه عمومی ، خصوصی و مدنی و چگونگی تعامل آنها در حال تعامل (کار کردن ، با یکدیگر و در مقابل یکدیگر) در حاکمیت فن آوری های دیجیتال است. توافق گسترده ای وجود دارد که بخش های دولتی و خصوصی و همچنین جامعه مدنی باید با هم همکاری کنند. معمای گمشده این است که چگونه می توان این امر را در عمل تحقق بخشید. همانطور که در بالا ، برخی استدلال می کنند برای خود تنظیم ، چگونگی تحقق این امر هنوز مشخص نیست. به عنوان مثال ، آیا باید بخش های دولتی به بخش خصوصی که به فناوری های نوظهور مانند هوش مصنوعی و blockchain متکی است ، اعتماد کنند؟برخی دیگر استدلال می كنند كه در زمینه نظارت بر فن آوری های نوظهور ، دست و پنجه نرم می كنند ، آنها پیشنهاد می كنند كه بیشتر بازیگران بخش خصوصی به ویژه فناوری های بزرگ بدون دست دولت قوی خود تنظیم نمی كنند (كوكا و والتی ، 2021). با این حال ، آنها ممکن است بیش از حد توانایی یا "قدرت" دولت ها (بیشتر) را که در بحث حاکمیت فناوری نوظهور گفته اند ، بیش از حد ارزیابی کنند. واقعیت این است که اکثر دولت ها ممکن است توانایی ، دانش ، منابع لازم برای اداره مؤثر ، تنظیم فن آوری های نوظهور را نداشته باشند (Cusumano و همکاران ، 2021). پس در مورد بازیکنان جامعه مدنی چطور؟آیا آنها در مورد شکل دادن به قوانین برای اداره فن آوری های نوظهور ، گفته اند تأثیرگذار هستند؟
این مطالعه استدلال می کند که نیروهایی که حاکمیت فناوری دیجیتال را در حوزه های قضایی مختلف شکل می دهند ، از مبارزات حاکمیتی و تکامل این سیستم عامل های نوظهور ناشی می شوند. بنابراین ، ما اکوسیستم سیستم عامل های نوظهور در بخش های عمومی ، جامعه مدنی و خصوصی را ترسیم می کنیم تا درک کلی خود را از حاکمیت فناوری نوظهور بهبود بخشیم. ما به دنبال شناسایی بازیکنان اصلی و انگیزه های اساسی آنها در فضای حاکمیت جدید فناوری های دیجیتال هستیم ، توضیح می دهیم که این انگیزه ها در کجا متفاوت است و در کجا همگرا می شوند (به طرح کلی 1 در بالا مراجعه کنید). سرانجام ، ما (مقدماتی) قدرت و قدرت نسبی آنها را برای شکل دادن به نحوه مدیریت فن آوری های نوظهور در نظر می گیریم. از طریق این رویکرد ، این مطالعه با تلاش برای ارائه دید واقعی هر بازیکن اصلی و نقش آنها در شکل گیری حاکمیت فن آوری های نوظهور ، به بحث و گفتگو در مورد مدیریت کمک می کند. در بخش های بعدی ، برخی از سیستم عامل ها و دیدگاه های در حال ظهور بازیکنان را بررسی می کنیم.
میز 1 . نقشه اکوسیستم حاکمیت فناوری نوظهور.
تعریف سیستم عامل های مدیریت فناوری نوظهور
در طول این مقاله، مفهوم «پلتفرمهای حاکمیت فناوری» در حال ظهور را معرفی کردهایم و به این ترتیب، به طور خاص به سازمان یا گروهی از سازمانها از جامعه عمومی، خصوصی یا مدنی اشاره میکنیم که ممکن است از «پایه/پلتفرم یا گروه سازمانی خود استفاده کنند. صدا/پلتفرم برای فشار برای سیاستها، استانداردها یا قوانین، یا اصول، یا نظرات صوتی و غیره در رابطه با حاکمیت فناوریهای نوظهور. این تعریف را نباید با پلتفرم های دیجیتال مبتنی بر هوش مصنوعی (به عنوان مثال، فیس بوک، گوگل) یا پلتفرم های مبتنی بر بلاک چین، به عنوان مثال، بایننس که بر کمک به تسهیل تعاملات بین تعداد زیادی از شرکت کنندگان، با استفاده از نرم افزار، سخت افزار و شبکه مدرن تمرکز دارد، اشتباه گرفت. فن آوری ها (Cusumano و همکاران، 2019).
اخیراً اکنون تحت سلطه غولهای فناوری جهانی قرار دارند که فناوریها و پلتفرمهای آنها توسط میلیاردها کاربر در سراسر جهان استفاده میشود و سرعت و راحتی در تعاملات را تسهیل میکند، خواه تراکنشهای مالی در سراسر مرزها، خرید و فروش محصولات و خدمات یا ارتباطات شخصی باشد. همانطور که چنین پلتفرم هایی دارای مزایای بسیار زیادی برای کاربران هستند، خطراتی مانند نقض حریم خصوصی، کلاهبرداری، و نقض امنیت سایبری و غیره را نیز به همراه دارند که می تواند فوراً میلیون ها کاربر را تحت تأثیر قرار دهد و تأثیر آن می تواند در سراسر جهان بازتاب یابد. به عنوان مثال، نقض حریم خصوصی در فیس بوک یا گوگل می تواند فوراً بر کاربران در سراسر جهان تأثیر بگذارد. به طور مشابه، کلاهبرداریها و کلاهبرداریهای رمزنگاری مانند اخیر «کریپتو بازی Squid» (بیبیسی، 2021b) و صدها کلاهبرداری دیگر از این قبیل، سرمایهگذاران کوچک از کره جنوبی تا اوگاندا را تحت تأثیر قرار میدهند.
رویکردهای نوظهور به حکومت بر انقلاب صنعتی چهارم
در شکل 1 زیر، ما یک مدل تحلیلی ساده را پیشنهاد میکنیم که از لین (2010) اقتباس شده است تا درک توصیفی از لایهها و بازیگران زیادی در حاکمیت فناوریهای نوظهور ارائه دهد.
شکل 1 . انواع حکمرانی فناوری نوظهور
حاکمیت فناوری نوظهور با محوریت بازار
در این مدل حکمرانی (شکل 2)، بسترهای نهادی برای حکمرانی فناوریهای نوظهور توسط بازار یا صنعت دیکته میشود، در حالی که بازیگران بخش عمومی (تنظیمکنندهها) و جامعه مدنی نقش محدودی در مسائل حاکمیتی و ارتقای نوآوری دارند. این مدل در کشورهایی مانند ایالات متحده حاکم است، جایی که صنعت فناوری اطلاعات به طور کلی دارای سابقه طولانی در تنظیم خودکار/نور است. در این مدل، صنعت، به ویژه BigTech ایالات متحده، اساساً با انگیزه سود است و لنز سود نقش مسلط را در شکل دادن به حاکمیت فناوری ایفا می کند. شرکتها فناوریهای نوظهور را بهعنوان «فناوری برنامههای کاربردی در دنیای واقعی، که بخشی از هر بافت جامعه است، 3» میبینند و میتوانند صنایع را با استفاده از الگوریتمهای هوشمندتر و دادههای بزرگ تغییر دهند. این شرکت ها همچنین تشخیص می دهند که فناوری های جدید منبع کسب و کار و مزیت رقابتی هستند که ممکن است خطرات قابل توجهی را برای کاربران ایجاد کند.
شکل 2 . حاکمیت فناوری با محوریت بازارها.
بنگاه های فنی رویکردهای مختلفی را برای مهار پتانسیل تجارت فن آوری های نوظهور اتخاذ کرده و با چالش های بی شماری که با آنها روبرو هستند مقابله کرده اند. اولین و متداول ترین رویکرد متمرکز بر استفاده از اولین و بازاریابی فن آوری های نوظهور است و بعداً به موضوعات اخلاقی ، حقوقی و حاکمیتی می پردازد. به عبارت دیگر ، این رویکرد اول و اخلاق دوم را در اولویت قرار می دهد (مورگیا و شریکانت ، 2019). ما به یک مورد اخیر از بلندگوهای هوشمند هوش مصنوعی نگاه می کنیم تا نحوه عملکرد این عمل را نشان دهیم. گزارش سازمان ملل و تعدادی از شکایات مصرف کننده علیه این "بلندگوهای جنسی و تبعیض آمیز" مطرح شده است (راولینسون ، 2019) ، که با این وجود به بازار آزاد شده اند. در واقع ، گذشته از برخی پاسخ های روابط عمومی به طور معمول ، تولید شرکت ها و فروش این محصولات به سختی به مسائل اخلاقی مطرح شده توسط آنها پرداخته اند. موارد مشابهی در زمینه blockchain وجود دارد ، جایی که محصولات و خدماتی مانند ارائه سکه های اولیه (ICO) ارزهای رمزنگاری شده معلوم شده اند که فقط نشانه های کلاهبرداری و بی ارزش را ارائه می دهند. این مدل از قرار دادن سود قبل از ملاحظات اخلاقی ، تنظیم کننده ها را وادار به انجام اقدامات واکنشی کرده است. با این حال ، کارشناسان معتقدند که برای تنظیم کننده ها اقدامات جامع و کافی ، فراتر از صدور هشدارها و راهنمایی ها ، به دلیل ماهیت جهانی فن آوری های دیجیتال دشوار است (Takanashi et al. ، 2020). موضوعات مشابه شامل دعوا بین Google و کارمندان آن در مورد برنامه های این شرکت برای ایجاد فناوری های بحث برانگیز ، و برنامه های آمازون برای فروش نرم افزار تشخیص چهره به دولت ها حتی پس از آنکه ذینفعان و کارمندان مسائل اخلاقی را مطرح کرده اند (واترز ، 2018). مشارکت این شرکت ها در پروژه های سودآور اما از نظر اخلاقی روایت را تقویت می کند که صنعت در مورد مسائل اخلاقی و اجتماعی جدی نیست (گرگ و گرین ، 2019). در این دیدگاه ، ابتکارات اخیر حاکمیت آنها فقط "شستشوی اخلاق" را نشان می دهد. تمرکز آنها همیشه بر سود اول و اخلاق خواهد بود.
با این حال ، موضوعات اخلاقی همچنان نگرانی های خود را در بین مشتریان شرکت ها نیز ایجاد می کند (به عنوان مثال ، نظرسنجی توسط Deloitte در سال 2018 از 1400 مدیر نشان داد که 32 ٪ نگران مسائل اخلاقی پیرامون فن آوری های نوظهور بودند). بنابراین ، شرکت های بزرگ فناوری ، از جمله IBM ، مایکروسافت ، آمازون و گوگل ، شروع به پذیرش سیستم عامل های "اخلاقی و مسئول" برای مدیریت فناوری کرده اند. به عنوان مثال ، در سال 2016 ، آنها یک انجمن قدرتمند بین صنعت به نام PAI و انجمن blockchain برای نوآوری های مسئول ایجاد کردند. با این حال ، کارشناسان صنعتی ، مانند Yochai (2019) و Bengio (به بنکلر 2019 ؛ کاستلوچچی ، 2019 مراجعه کنید) ، حرکاتی مانند تلاش برای ایجاد سیستم عامل های لابی را برای تأثیرگذاری در شکل گیری قوانینی که حاکم بر فناوری های نوظهور هستند ، تفسیر کرده اند (Simonite ، 2019) و ASتلاش برای جلوگیری از تنظیم (واگنر ، 2018). در حالی که صنعت استدلال می کند که خود تنظیم ارجحیت است زیرا مقررات نوآوری را خنثی می کند ، استراتژی "شستشوی اخلاق" (Peukert and Kloker ، 2020) و لابی ها منجر به ترس از بی تحرکی نظارتی و عدم رسیدگی به چالش ها و موضوعات اساسی ناشی از غیرقابل ارزیابی می شوند. فن آوری های دیجیتال.
علاوه بر این ، بنگاه های فناوری کمیته ها و اصول اخلاق فناوری را به عنوان سکویی برای شکل دادن به حاکمیت فن آوری های نوظهور و پرداختن به موضوعات انصاف ، ایمنی ، حفظ حریم خصوصی ، شفافیت ، فراگیر بودن و پاسخگویی تأسیس کرده اند. با این حال ، بسیاری از کارشناسان پیشنهاد می کنند که تلاش های صنعت از نشان دادن اینکه این بنگاه ها متعهد به پرداختن به موضوعات اخلاقی و حاکمیتی نوظهور هستند ، کم می شوند. منتقدین می گویند ، در بهترین حالت ، این صنعت درگیر شستشوی اخلاق است (واگنر ، 2018 ، 6-7) ، با اشاره به این واقعیت که اصول پیشنهادی شرکتهای فنی الزام آور نیستند و هیچ مکانیسم یا چارچوبی برای اطمینان از این امر وجود ندارداجرا شدهکمیته های اخلاقی فقط مشورتی هستند و هیچ قدرتی برای اطمینان از رعایت توصیه های آنها توسط شرکت ها ندارند. علاوه بر این ، هیچ مکانیسم تأیید/حسابرسی پیروی از اخلاق وجود ندارد. تاکنون ، نمونه هایی از آمازون و گوگل در حال پیشروی در پروژه های بحث برانگیز با وجود اعتراضات کارمندان و ذینفعان ، ترس منتقدین را تأیید می کنند که شرکت های فناوری فاقد هرگونه تعهد واقعی برای رسیدگی به مسائل اخلاقی و حاکمیتی هستند.
علاوه بر این ، شرکت های فناوری در حال شکل گیری قوانین حاکمیت از طریق سیستم عامل های استاندارد اتحادیه ارتباطات بین المللی (ITU) هستند (گروس و همکاران ، 2019). به عنوان مثال ، گزارش های اخیر حاکی از آن است که شرکت های هوش مصنوعی چینی ، مانند ZTE و Zahua ، با ITU همکاری می کنند تا استانداردهایی را برای فن آوری های تشخیص چهره AI ارائه دهند. توانایی تأثیرگذاری بر استانداردها نه تنها یک مزیت رقابتی و بازار نسبت به دیگران بلکه توانایی تأثیرگذاری بر سیاستهای فناوری اتخاذ شده توسط کشورها ، به ویژه در جهان در حال توسعه را به شما می دهد. بنابراین ، این واقعیت که شرکت های هوش مصنوعی در حال نوشتن استانداردهای فناوری هایی هستند که ثابت شده در سطح جهان (به ویژه در ایالات متحده ، چین و انگلیس) باید با احتیاط در نظر گرفته شوند. چنین تلاشهایی به شرکتهای فنی فرصتی می دهد تا خود را تنظیم کنند و قوانینی را با حداقل نظارت از جامعه مدنی 4 و آژانس های مدنی مصرف کننده تنظیم کنند-دو مؤلفه های اصلی که همیشه در تهیه این استانداردها کمتری دارند. علاوه بر این ، این استانداردها دوباره داوطلبانه هستند. بنابراین ، یک چالش واقعی برای تضمین اینکه سایر شرکت ها محصولات و خدمات دیجیتال سرکش را معرفی نمی کنند ، وجود دارد.
از آنجا که بنگاه های فناوری همچنان به سمت خودتنظیمی فشار می آورند ، منتقدین و کارشناسان خاطرنشان می کنند که با توجه به مسائل اخلاق با بازه زمانی همراه با هوش مصنوعی ، نباید به این صنعت اعتماد کرد تا خود تنظیم شود (بنکلر ، 2019). از نظر منتقدین ، "خودتنظیمی برای فن آوری های نوظهور کار نمی کند ، زیرا شرکت هایی که از دستورالعمل های اخلاقی پیروی می کنند ، با توجه به شرکت هایی که این کار را نمی کنند ، مضر هستند. مثل رانندگی است. خواه در سمت چپ یا سمت راست باشد ، همه باید به همان روش رانندگی کنند. در غیر این صورت ، ما دچار مشکل هستیم. "
به طور کلی، شرکت های فناوری نفوذ و قدرت بی بدیلی نسبت به سایر پلتفرم ها (عمومی یا جامعه مدنی) در بحث حاکمیت فناوری دارند، به جز در تعداد محدودی از حوزه های قضایی، مانند اتحادیه اروپا، اکثر حوزه های قضایی به ویژه در اقتصادهای نوظهور به سختی می توانند بر این موضوع مسلط شوند. استراتژی حاکمیت منسجم در مورد این شرکت ها و خدمات آنها همانطور که در بالا مشخص شد. مثال دیگر شامل پلتفرمهای مبتنی بر بلاک چین مانند بایننس است که در چندین کشور فعالیت میکند و در تجارت میلیاردها دلاری داراییهای رمزنگاری بدون نظارت دفتر یا نظارت نظارتی استفاده میشود. نمونههای دیگر مواردی از پلتفرمهای مبتنی بر هوش مصنوعی مانند Airbnb یا Uber است که در بسیاری از کشورها «غیرقانونی» هستند (بهعنوان مثال، کره جنوبی یکی از این نمونهها است) اما در کشورهایی به کار خود ادامه میدهند که گویی سیستمهای حقوقی آن کشورها اهمیتی ندارد. چنین مواردی بسیار زیاد است و پرداختن به جزئیات آنها از حوصله این مقاله خارج است.
حاکمیت دیجیتال مبتنی بر سازمان های کاربر محور
شکل 3 تلاش ها و ابتکارات نوظهور بازیگران جامعه مدنی برای ایجاد سیاست ها، استانداردها و مکانیسم های نهادی حاکم بر فناوری های دیجیتال را نشان می دهد. بازیگران نهادی در حال ظهور در این فضا عبارتند از: سازمان بینالمللی استاندارد (ISO)، مجمع جهانی اقتصاد (WEF)، موسسه مهندسین برق و الکترونیک (IEEE)، خانههای رسانهای بینالمللی و سازمانهای غیردولتی (NGO)دیگران. این سازمانها نقشهایی را بهعنوان حامی، شبه تنظیمکننده، ناظر و تعیینکننده خطمشی و استاندارد ایفا میکنند، که همگی بلوکهای ساختمانی برای حکومت جهانی فناوریهای نوظهور را تشکیل میدهند.
شکل 3. حاکمیت نوظهور با محوریت سازمان های کاربر محور.
به عنوان مدافعان و شبه تنظیمکنندهها، سازمانهای جامعه مدنی بیش از 100 اصل هوش مصنوعی مانند 10 اصل برتر برای هوش مصنوعی اخلاقی توسط اتحادیه جهانی UNI، اعلامیه تورنتو توسط عفو بینالملل و Access Now، و دستورالعملهای جهانی برای هوش مصنوعی توسط عموم منتشر کردهاند. ائتلاف صدا. این ابتکارات به اهمیت روزافزون کاهش خطرات و خطرات ناشی از پذیرش غیرقانونی و غیرقابل پاسخگویی فناوریهای نوظهور وزن میافزاید و به اصلاحات نظارتی و سیاستهای صنعتی در مدیریت فناوریهای جدید اشاره میکند. این تلاشها نه تنها توجه جهانی را به مشکلات اخلاقی، حقوق بشر و اجتماعی که به دلیل کاربرد روزافزون فناوری دیجیتال جدید پدید آمدند، جلب کرده است، بلکه ورودیهای حیاتی برای سیاستگذاری دیجیتال در بخشهای دولتی و خصوصی فراهم کرده است. چنین تلاش هایی همچنین فشار بر بازیگران صنعت را برای اتخاذ اصول اخلاقی با طراحی مدل هایی در زنجیره های توسعه فناوری خود افزایش داده است.
جامعه مدنی به عنوان یک سیاست گذار و تعیین کننده استاندارد، به عنوان یک شبه تنظیم کننده در حال ظهور است. برای مثال، ISO استانداردهایی مانند ISO/IEC JTC 1/SC 42 (ISO، 2017) را تهیه کرده است که بر پذیرش و استفاده مسئولانه از هوش مصنوعی تمرکز دارد. به طور مشابه، IEEE، انجمن جهانی مهندسان، یک ابتکار جهانی برای ملاحظات اخلاقی در هوش مصنوعی و سیستمهای مستقل (IEEE SA، 2017) ایجاد کرده است، استانداردهایی مانند استاندارد IEEE P7OO4 TM برای اداره دادههای کودکان و دانشآموزان، استاندارد IEEE P7005 TM برایمدیریت داده های کارفرمای شفاف و استاندارد IEEE P7006 TM برای عامل هوش مصنوعی داده های شخصی (AI). اگرچه این استانداردها داوطلبانه هستند، این تلاشها با تحمیل نوعی کنترل نظارتی بر صنعت هوش مصنوعی به جامعه مدنی تبدیل میشوند، علیرغم اینکه کنترل ضعیفی به دلیل مقیاس استانداردهای مورد نیاز برای پذیرش فراگیر هوش مصنوعی است.
به عنوان ناظران، بازیگران جامعه مدنی و سازمانهای رسانهای بینالمللی، کاربرد غیراخلاقی و مغرضانه فنآوریهای نوظهور توسعهیافته توسط صنعت را برجسته کردهاند، در آنچه که «شلاق زدن، نامگذاری، و شرمکردن» بخشهای خصوصی و عمومی برای بازنگری در مورد توسعه و پذیرشمحصولات و خدمات هوش مصنوعی و بلاک چین. به عنوان مثال، پلتفرمهایی مانند ProPublica، نیویورک تایمز، و CNN به مصرفکنندگان جهانی روزانه اخباری در مورد خطرات محصولات دیجیتال غیراخلاقی شرکتهای فناوری دادهاند (Murgia و Shrikanth، 2019). به طور مشابه، سازمانهای غیردولتی مانند Women in AI و NOYB (نه کار شما) از شرکتهای فناوری و دولتهای ملی خواستهاند که از نظر اخلاقی و حقوق بشری که از محصولات و خدمات سوء استفاده میکنند، چشمپوشی کنند. چنین فعالیتها و کمپینهایی با استفاده از پلتفرمهای رسانههای جمعی نه تنها آگاهی مصرفکننده جهانی را افزایش داده است، بلکه برخی شرکتها را از مشارکت در برخی بازارها منع کرده است (Knight, 2019). در برخی موارد، فعالیتها و کمپینها به ابزار و اهرمهای حیاتی برای «جامعه مدنی برای کنترل صنعت فناوری نوظهور 6» تبدیل شدهاند. به عنوان مثال، کمپین هایی که مسائل مربوط به تعصب الگوریتم هوش مصنوعی، تبعیض و نژادپرستی را برجسته می کنند، منجر به عذرخواهی شرکت هایی مانند گوگل و فیس بوک (Grush, 2015) و رفع نقص در الگوریتم های خود شده است (Gillum and Tobin, 2019).
فعالیتها و شکایات با تمرکز بر حریم خصوصی و حفاظت از دادهها، دولتها را تحت تأثیر قرار داده است تا از طریق مقررات و اقدامات پولی مداخله کنند، که شرکتهای فناوری را تحت تأثیر قرار داده است. به عنوان مثال، شکایات NOYB منجر به بی اعتبار شدن توافقنامه بندر امن - یک توافق بین المللی که برای انتقال داده های اروپایی به ایالات متحده طراحی شده است - و سایر کمپین های این سازمان منجر به جریمه های پولی توسط دولت ها به دلیل نقض قوانین حفظ حریم خصوصی شده است.
اگرچه مراحل فوق از نظر حاکمیت مؤثر فن آوری های نوظهور در جهت درست حرکت می کند ، اما یک سؤال مهم بدون پاسخ مربوط به ترجمه این استانداردها ، اصول و هر تحقیق مرتبط با آن است. چگونه جامعه باید برای اداره فن آوری های مخرب سازماندهی شود؟چه کسی مسئولیت نظارت بر این محصولات و خدمات را از طریق نظارت ، صدور گواهینامه و تأیید آنها خواهد داشت؟علاوه بر این ، چگونه می توانیم اطمینان حاصل کنیم که کار جامعه مدنی می تواند به سیاست و اقدامات نظارتی تبدیل شود؟فعالیت های مربوط به جامعه مدنی تا به امروز محدود شده است. از یک طرف ، آنها تا حد زیادی فقط حمایت اخلاقی و مصرف کننده را در کشورهای ثروتمند هدف قرار می دهند و در نتیجه "اخلاق و شکاف حاکمیت" ایجاد می شود. 7 "این بدان معنی است که حفظ حریم خصوصی و محافظت از داده ها در کشورهای اروپایی به دلیل مقررات در اولویت قرار می گیرد ، در حالی که کاربران در جاهای دیگر به رحمت شرکتهای سلطه گر Bigtech واگذار می شوند (Kelion ، 2019). به عنوان مثال ، "حق فراموش شدن" فقط برای مصرف کنندگان اروپایی اعمال می شود. گروه های جامعه مدنی همچنین بر خلاف انجام اقدامات اساسی برای رسیدگی به مشکلات اخلاقی مطرح شده توسط محصولات آنها ، صنعت را از طریق شستشوی اخلاق سوق داده اند (واگنر ، 2018). با وجود بسیاری از ابتکارات جامعه مدنی ، این تلاش ها تأثیر محدودی داشته است ، و به سختی چالش های اخلاقی ، قانونی و حاکمیتی مرتبط با اتخاذ فن آوری های دیجیتال جدید را لمس می کند. سؤالاتی در مورد اینکه آیا جامعه مدنی می تواند مسئولیت پذیرش این فناوری ها را تضمین کند ، مطرح می شود. برخی از مدلهای پیشنهادی برای حاکمیت به تکامل گروه های جامعه مدنی از نقش های مدافع و نظارت بر سیستم های دارای مجوز فنی ، مشابه مورد جامعه مدنی محیط زیست ، به عنوان ابزاری برای ایجاد مدلهای حاکمیتی پایدار و تأثیرگذار نگاه می کنند.
این بررسی اولیه نشان می دهد که سیستم عامل های جامعه مدنی - اصول انتشار و تسویه حساب شرکتهای فناوری برای اتخاذ "اخلاق با طراحی" ، قدرت قابل اجرا برای ترجمه این اصول ، دستورالعمل ها و استانداردهایی دارند که می توانند توسط شرکت های فناوری اتخاذ شوند. بنگاههای فناوری به ویژه هنگام مطرح شدن "موضوعات اخلاقی و حاکمیتی" ، نگرش بی اعتنایی و "دست نخورده" را نشان داده اند. نکته مهم این است که Google از این "اخلاق" رد می کند-می بینید که Google تیم اخلاق خود را به دلیل اشاره به مسائل اخلاقی با الگوریتم های دارای هوش مصنوعی خود شلیک می کند (کارن ، 2020). ادعاهای مشابهی علیه فیس بوک در رسوایی مداوم "پرونده های فیس بوک" مطرح شده است.
حاکمیت دیجیتال در حال ظهور در بخش دولتی
در مرحله بعد ، این بخش در مورد سیستم عامل های نوظهور مدیریت فناوری دولت های مختلف مورد بحث قرار می گیرد و سعی می کند ارتباط آنها با سایر بازیکنان را برای ارتقاء نوآوری های دیجیتال و حاکمیت خوب حل کند. این سیستم عامل های در حال ظهور شامل ابتکارات دولت و بین دولتی با محوریت تلاش های سیاست ، نهادی و ظرفیت سازی برای حاکمیت فن آوری های نوظهور است (شکل 4). در این مدل ، دولت ها نقش های پیچیده ای را به عنوان تنظیم کننده یا غیر تنظیم کننده ، خریداران فن آوری های دیجیتال ، سیاست گذاران نوآوری ، نهادهای مالیاتی ، استانداردها و تنظیم کننده های اصلی و مانیتورهای خودتنظیمی به عهده می گیرند. ترکیبی از این نقش ها به طور معمول به دولت ها و سازمان های عمومی کمک می کند تا به اهداف دوگانه ارتقاء نوآوری های دیجیتال و محافظت از مردم در برابر خطرات و خطرات ناشی از این فناوری ها کمک کنند. به طور معمول ، نقش (های) یک دولت خاص همچنین نوع سیستم عامل های مورد نیاز برای دستیابی به این اهداف را دیکته می کند: سیستم عامل های حاکم بر نوظهور تمایل دارند بین سیستم عامل های تقویت نوآوری ، تمرکز بر نوآوری و سرمایه گذاری در فن آوری های جدید و سیستم عامل های حاکمیتی ، که آنها تقسیم می شوند. با خطرات و خطرات فن آوری های جدید خودکار مقابله کنید.
شکل 4سیستم عامل های مدیریت فناوری نوظهور در بخش دولتی.