به گزارش حلقه وصل: استفاده از ابزارهای مبتنی بر هوش مصنوعی در حال تبدیل شدن به بخش بزرگی از زندگی روزانه جوامع اجتماعی میشود. در همین راستا دولتها و سیاستگذاران تلاش میکنند تا با یک تنظیمگری مبتنی بر روند رشد هوش مصنوعی در جوامع را ممنوع، محدود و شفاف کنند تا جایی که نهادهای نظارتی بتوانند در مواقع لزوم از ابزارهای قانونی برای اعمال اقدامات سختگیرانه در زمینه حفاظت از دادههای شخصی و همچنین تضمین استفاده اخلاقی از دادهها بهره ببرند.
حسین طالب مدیر مرکز نوآوری ایران هایتک در خصوص لزوم تنظیمگری در این حوزه، اظهار کرد: این روزها شاهد هستیم که شرکتهای بزرگ فعال در حوزه هوش مصنوعی مکلف شدهاند تا تعهداتی به دولت فدرال در آمریکا بدهند زیرا باتوجهبه گسترش هوش مصنوعی، ریسکها و خطرات حاصل از آن نیز برای بشر روندی رو به رشد داشته است.
وی افزود: اگر بخواهیم به صورت خلاصه بیان کنیم، هوش مصنوعی یک فناوری نوظهور و تحول آفرین بوده و از منظر تاثیراتی که بر زندگی بشر خواهد گذاشت بسیار گسترده است اما در عین حال که استفاده درست از این ظرفیتهای هوش مصنوعی میتواند در خدمت رفاه و امنیت بشر باشد، اگر این فناوری به شکل غیراخلاقی و نامتعارف و یا غیراصولی پیش برود قطعاً خطراتی برای بشر خواهد داشت.
طالب ادامه داد: طی سالهای اخیر و با گسترش هوش مصنوعی یک سری اتفاقات و حوادث رخ داده که به نحوی تکاندهنده بوده است. اگر بخواهم مثال بزنم و مصداقی عرض کنم، در سال 2016 یک خودروی الکتریکی ساخت شرکت تسلا که تحت ناوبری خودران قرار داشت با یک تریلر تصادف کرد و دلیلی که برای تصادف بیان شد این بود که سیستم هوش مصنوعی و پردازش تصویر این سیستم خودرو نتوانسته بین آسمان روشن و تریلی تمایز قائل شود. در این جا سوال اصلی که پیش میآید این است که در حوزه مسئولیت و در بحث تنظیمگری چه کسی مسئول است، آیا راننده مسئول است یا شرکت سازنده خودرو؟ و این سوالات کلیدی در حقیقت همان چالشی هست که ما در بحث تنظیمگری با آن مواجه هستیم.
مدیر مرکز نوآوری ایران هایتک گفت: ازاینجهت عرض میکنم که بسیاری از مباحثی که در هوش مصنوعی مطرح میشود نیاز به تنظیمگری دارد و نیاز به این دارد که مسئولیتها بهدرستی تفکیک و مشخص شود و روندهای قانونی لحاظ شود تا درصورتیکه خسارتی وارد شد امکان جبران خسارات از مجاری قانونی وجود داشته باشد.
وی تصریح کرد: یکی از نمونههای دیگر در استفاده از هوش مصنوعی سیستم استخدام در شرکت آمازون است. این شرکت در سال 2017 یک سیستم استخدام خودکار راهاندازی کرد و جالب است چون برای آموزش داده این سیستم استخدامی، دادههای آقایان بیش از دادههای خانمها بود، سیستم دچار بایاس (پیش داوری) شده بود و منجر به این شده بود که سیستم استخدام خودکار علیه خانمها تبعیض قائل شود. چرا؟ چون دادههایی که با آن آموزش دیده بود عمدتاً دادههای مربوط به آقایان بود و این سیستم به اشتباه این جور استنباط کرده بود که آقایان توانایی و لیاقت بیشتری دارند و یا کارایی بالاتری نسبت به خانمها دارند. خب در این حوزه اگر به فردی خسارتی وارد شود چه کسی مسئول است، آیا سیستم هوش مصنوعی مسئول خواهد بود یا فردی که مسئول طراحی سیستم هوش مصنوعی بوده است؟
طالب ادامه داد: اگر قرار باشد به نمونههای این حوزه بپردازیم موارد بسیاری در دنیا وجود دارد که لزوم تنظیمگری حوزه هوش مصنوعی را نشان میدهد. مثلا در 2018 یک بیمار در بریتانیا در اثر عمل قلب رباتیک جان خود را از دست داد، او در سال 2015 تحت عمل قرار گرفته بود و آنچه پزشکان اعلام کردند این بود که احتمال فوت این فرد 2درصد است، اما وی پس از 3 سال بر اثر عوارض عمل جراحی جان خود را از دست داد. در نهایت سیستم هوش مصنوعی که عامل کنترل ربات بود مقصر شناخته شد. در این جا این موضوع مطرح میشود که مسئول واقعی چه کسی است و باز هم نقش مهم رگولاتوری و تنظیمگری هوش مصنوعی به چشم میآید.
مدیر مرکز نوآوری ایران هایتک تاکید کرد: طی سالهای 2018 تا به امروز نمونههای زیادی از حوادث مرتبط با هوش مصنوعی پیش آمده که گاهی منجر به تعطیلی یک بخش از کار شده است. مثلاً در سال 2018 یک خودروی خودران شرکت اوبر باعث مرگ یک عابر شد که این شرکت وادار به تعطیلی بخش خودروهای خودران شد. یا در سال 2021 نیز یک فرد سیاه پوست را پلیس آمریکا به جرم تیراندازی بازداشت کرد و یک سال آن فرد در حبس بود و بعد از یک سال تبرئه شد. تحقیقات نشان میداد که سیستمی که پلیس برای کشف جرم استفاده کرده یک سیستم مبتنی بر هوش مصنوعی بوده و سیستم هوش مصنوعی بهاشتباه این فرد را شناسایی کرده به عنوان فرد تیرانداز ولی پلیس به دلیل اعتماد بیش از حدی که به سیستم هوش مصنوعی داشت این فرد را دستگیر کرده و حالا فرض کنید در چنین اتفاقاتی که قطعا در آینده بیشتر هم خواهد شد باید دید جبران خسارت این فرد را چه کسی خواهد داد.
وی همچنین افزود: نمونه دیگر در سال 2022 اتفاق افتاد، زمانی که یک سیستم تشخیص چهره مبتنی بر هوش مصنوعی که در اختیار پلیس آمریکا بود یک زن سیاه پوست که در ماه هشتم بارداری بود را بهاشتباه به جرم دزدی خودرو دستگیر کرد درحالیکه همه شواهد حاکی از این بود که چنین فردی نمیتواند سارق باشد، اما سیستم هوش مصنوعی این را به اشتباه مجرم تشخیص داده بود.
مدیر مرکز نوآوری ایران هایتک اظهار کرد: از طرف دیگر، امروزه با گسترش هوش مصنوعی سرقتهایی که از افراد میشود و تقلید صدایی که سیستم هوش مصنوعی انجام میدهد به شدت گسترش پیدا کرده است. اگر نمونه بخواهیم بیان کنیم، بر اساس آمارها فقط در سال 2022 حدود 36 هزار مورد کلاهبرداری تلفنی در آمریکا انجام شد و بیش از 11 میلیون دلار از این افراد سرقت شد. در یک مورد که با استفاده از هوش مصنوعی این اتفاق افتاده، زوجی بعد از اینکه صدای فرزند خودشان را شنیدند چیزی حدود 15 هزار دلار رمزارز را برای یک کلاهبردار جابهجا کردند درحالیکه آن صدا، صدای پسرشان نبوده بلکه صدایی بوده که سیستم هوش مصنوعی تقلید کرده بود و توانسته بود آنقدر طبیعی رفتار کند که پدر و مادر فرد هم تشخیص ندهند که این صدای واقعی پسرشان نیست. این چنین اتفاقاتی خطرات زیادی برای جامعه دارد و در آینده بهاحتمال زیاد این دسته از حوادث بسیار زیاد خواهد شد.
طالب ادامه داد: در ژانویه همین امسال (2024) تصاویر مستهجن از یک خواننده مشهور آمریکایی به نام تیلور سوئیفت منتشر شد که این تصاویر توسط جعل عمیق یا همان دیپفیک ساخته شده بود، یعنی از هوش مصنوعی استفاده شده بود برای اینکه بتوانند آبروی یک چهره را ببرند و این یکی از مهمترین چالشها در دنیای امروز است. به عبارتی هوش مصنوعی این قابلیت را دارد که هم برای کلاهبرداری و هم برای سوءاستفاده از افراد، اخاذی و دیگر جرائم به کار گرفته شود و به همین جهت بحث تنظیمگری هوش مصنوعی بسیار اهمیت دارد.
وی افزود: در نمونه دیگر، در فوریه 2024 در یک ویدئوکنفرانس و با استفاده از فناوری جعل عمیق، همه افراد حاضر در ویدئوکنفرانس با سیستم هوش مصنوعی شبیهسازی شده بودند، به جز کارمندی که در بخش مالی قرار بود پول را جابهجا کند و با استفاده از این کلاهبرداری پیچیده ای که صورت گرفت حدود 26 میلیون دلار جابهجا شد. در این کنفرانس مدیر ارشد شرکت که با استفاده از فناوری هوش مصنوعی چهره و صدای او بازسازی شده بود به کارمند دستور داده بود تا پول را جابهجا کند و کارمند هم با تصور اینکه این دستور واقعی است این کار را انجام داده بود. مسلماً ازایندست حوادث در آینده خیلی بیشتر تکرار خواهد شد.
طالب تاکید کرد: اهمیت تنظیم گری هوش مصنوعی به این معنا که نهادهای حاکمیتی به بحث تنظیم مقررات و قوانین حاکم بر کاربران، توسعه دهندگان و تولید کنندگان سیستمهای هوش مصنوعی وضع میکنند پررنگ خواهد شد. در این راستا اتحادیه اروپا جزء پیشگامان بحث تنظیمگری هوش مصنوعی است.
وی افزود: در آوریل سال 2021 کمیسیون اروپا اولین چارچوب قانونی اتحادیه اروپا را برای هوش مصنوعی پیشنهاد داد و در مارس 2024 پارلمان اروپا قانون هوش مصنوعی رو با اکثریت آرا تصویب کرد و مکانیزمی هم که در پیش گرفته بر اساس سطوح مختلف ریسک است، یعنی بر اساس سطوح مختلف ریسک تنظیمگری انجام میدهد. همچنین دولت آمریکا در اکتبر 2023 مصوبات کلیدی باهدف حمایت از مصرفکنندگان، کارگران و گروههای اقلیتی در مقابل خطرات هوش مصنوعی داشت.
مدیر مرکز نوآوری ایران هایتک ادامه داد: یکی دیگر از تحولات مهم بحث پیشنویس قانون هوش مصنوعی جمهوری خلق چین بود که در مارس 2024 تنظیم شد و در حال بررسی و طی مراحل قانونی است. همچنین در مارس 2024 بود که سازمان ملل متحد اولین قطعنامه در مورد هوش مصنوعی را با اتفاق آرا تصویب کرد، در این قطعنامه بر موضوع حفاظت از دادههای شخصی، نظارت بر هوش مصنوعی و آشنایی از خطرات و حفاظت از حقوق بشر تأکید شد.
طالب گفت: بحث تنظیمگری هوش مصنوعی ریشه در خطرات آن دارد و این خطرات باید در نظر گرفته شود تا هوش مصنوعی بتواند در یک بستر مناسب رشد کند بهطوری که خدماتی که به بشر ارائه میکند با کمترین خطر و با کمترین ریسک باشد.
وی افزود: در بحث تنظیم گری هوش مصنوعی بحث مسئولیتها بسیار مهم است، ما در بحث مسئولیتها انواع مسئولیتها داریم: مسئولیت مدنی، مسئولیت اخلاقی، مسئولیت اداری، مسئولیت کیفری، مسئولیت بین المللی و..... که هر کدام از این مسئولیتها نیاز دارند در مورد سیستم هوش مصنوعی موردتوجه قرار بگیرند و قوانین و مقررات مناسب برای آنها وضع شود.
طالب تصریح کرد: در قوانین مدنی و کیفری جمهوری اسلامی اخلاق حسنه جایگاه ویژهای دارد و در نتیجه باید در حوزه هوش مصنوع نیز مسئولیت اخلاقی در نظر گرفته شود به این معنا که اگر یک سیستم هوش مصنوعی یا یک پلتفرم هوش مصنوعی فضایی باشد برای اینکه اخلاق حسنه نقض شود یا ابزاری فراهم کند که مغایر بااخلاق حسنه باشد عملا قوانین ما و قانونگذار ما میتواند بهواسطه این قانون ( قوانینی مثل ماده 975 قانون مدنی، ماده 6 قانون آیین دادرسی، ماده 960 قانون مدنی یا همچنین ماده 1295 قانون مدنی) بحث اخلاق حسنه و پایبندی سیستمهای هوش مصنوعی و پلتفرمهای هوش مصنوعی و اخلاق حسنه را در نظر دارند و عملاً ما با استفاده از همین 4 ماده قانونی که در قوانین کشور داریم میتوانیم در بحث اخلاق مدار بودن سیستمها و پلتفرمهای هوش مصنوعی به قولی تنظیمگری خود را داشته باشیم و بر روی آن اتفاق نظر مناسبی وجود دارد به این معنا که از نظر اکثر حقوقدانان بزرگ ایران مبنای اخلاق حسنه بر اساس آموزههای دینی بوده و دین ما تعیین کننده معیار و مبنای اخلاق حسنه است.
طالب تاکید کرد: اصول اخلاق حسنه در سیستمهای هوش مصنوعی به چه صورت تعریف میشود یک بحث مفصل است، اما اگر بخواهم بهصورت خلاصه عرض کنم بحث اینکه سیستم هوش مصنوعی شفاف و توضیحپذیر باشد، اینکه سوگیری و یا به اصطلاح بایاس نداشته باشد، حفظ حریم خصوصی را انجام دهد، قابلیت ردیابی داشته باشد، مکانیزم ارزیابی جریمهها در آن لحاظ شده باشد، استانداردهای ایمنی و سازگاری با محیطزیست و دستورالعملهای اخلاقی را رعایت کند که همه این موارد جزء محورهای اصلی مسئولیت اخلاقی بهحساب میآید.
وی افزود: در بحث مسئولیت مدنی سیستمهای هوش مصنوعی همان طور که عرض کردم، مثلاً سیستم هوش مصنوعی خودروهای خودران میتوانند آسیبزا هم باشند، یعنی اگر یک فردی بواسطه تصادف با یک خودروی کنترلشده توسط هوش مصنوعی دچار آسیب یا فوت شد ضرورت دارد که قانونگذار مکانیزمها و تمهیدات لازم را برای این شرایط در نظر بگیرد، در همین راستا نیز قوانین بسیار زیادی در قانون مدنی ایران داریم که میتوانند برای تنظیمگری سیستم هوش مصنوعی هم به کار گرفته شوند ( مثلاً ماده 221 قانون مدنی، ماده 227 و 229 قانون مدنی و ماده 335 قانون مدنی) بحث خسارتهای ناشی از عملکرد نامناسب سیستمهای هوش مصنوعی را پوشش میدهند. همچنین ماده 13 قانون جرایم رایانهای و ماده 14 و 16 همین قانون بحث خسارتهای مالی و جانی ناشی از سیستم هوش مصنوعی را میتوانند پوشش دهند که نشان میدهد در قانون ما کمبود زیادی در این زمینه وجود ندارد.
مدیر مرکز نوآوری ایران هایتک اظهار کرد: تنها بحثی که در این میان وجود دارد این است که میزان مسئولیت سیستم هوش مصنوعی به چه صورتی تعیین شود، تفاوت عمده سیستم هوش مصنوعی با سیستمهای عادی این است که سیستمهای هوش مصنوعی با نام مالک خود شناخته میشوند، اما قوانینی که ما در کشور داریم اصولاً برای انسانها نوشته شده است. یعنی اگر انسانها مرتکب جرمی یا خسارت به دیگران شوند مجازات میشود، اما برای سیستمهای هوش مصنوعی ماهیت مستقلی نمیتوان قائل بود و نمیتوانیم او را مجازات کنیم.
وی در پایان خاطرنشان کرد: حالا سوالی که مطرح میشود این است که چه کسی مسئول است؟ مالک سیستم هوش مصنوعی، کاربر و یا توسعه دهنده سیستم هوش مصنوعی مسئول این اتفاق هستند و اساساً اگر اتفاقی افتاد که ناشی از عملکرد نامناسب سیستم هوش مصنوعی بود، مسئولیت جبران خسارتها با چه کسی است؟ اینها مواردی است که در قانون خیلی در مورد آنها صحبت نشده یا اگر دقیقتر بخواهم بگویم یک خلاء قانونی در این زمینه وجود دارد و نیاز است که تنظیمگری در این بخش صورت گیرد و برای این دستاورد جدید بشر قوانین و مقررات روشن، شفاف و محکمی تدوین شود تا انشاءالله گسترش استفاده از هوش مصنوعی در کشور ما با مشکلی مواجه نشود و درعینحال که خدمات هوش مصنوعی در حال گسترش به جامعه است، ریسکهای آن هم تا حد امکان کاهش پیدا کند.
منبع: فارس