احتمالا با شخصیت دکتر اختاپوس در فیلم مرد عنکبوتی آشنا هستید. صحبت از تکنولوژی هوش مصنوعی یعنی همان حرکت آرمانی که دکتر برای رفع محدودیتهای خود با دستگاهی که ساخت انجام داد. در این مقاله میخواهیم بررسی کنیم که اگر چیپ کنترل دستگاه دکتر اختاپوس شکست و او را به یک غول تبدیل کرد باید چه کنیم؟ نتیجه چنین رخدادی بر گردن چه کسی است، آیا اصلا باید اجازه تولید چنین چیزی را داد یا نه؟ اینجاست که Responsible AI به کمک ما میآید. ما در این مقاله از آکادمی آمانج میخواهیم ببینیم آیا هنوز قوانین هوش مصنوعی متولی خاصی دارد؟
حقوق هوش مصنوعی چیست؟
در نظر خیلی از مردم هوش مصنوعی حرکتی آرمانی و رو بهجلو در دنیایی است که با کمک تکنولوژی هیچ محدودیتی در کره خاکی ندارند. (برای آشنایی با کاربردهای هوش مصنوعی در سال ۲۰۲۲ به این مقاله سر بزنید.) افراد دیگری هم هستند که به هوش مصنوعی با مثبت اندیشی کمتری نگاه میکنند. بسیاری از نکات مثل تصمیمهای اشتباه یا گرفتن قدرت از کارگران و نبود حریم خصوصی و بحث امینت دادهها از جمله این موارد است که در فکر این بخش مرتب هشدار میدهد. اینجاست که فقدان قانون نمایان میشود. قوانین هوش مصنوعی در واقع راهی برای پاسخگویی به این مسائل و مسئولیتپذیر کردن شرکتهای استفاده کننده از این تکنولوژی است.
هوش مصنوعی چیست و چرا به قانون نیاز دارد؟
به نظرم حالا زمان آن رسیده که بهصورت متمرکز جواب این سوال را بدهیم (مگر هوش مصنوعی چیست که نیاز به قانون و مسئولیت پذیری دارد؟)
وقتی در مورد AI حرف میزنیم منظورمان مدلی از ماشین لرنینگ است که در پروداکتهای مختلف اجرا میشود. مثلا خودروهای بدون سرنشین باید بهصورت خودکار مسیر و چالشهای احتمالی موجود در آن را تشخیص و تصمیم دقیق بدون دخالت انسان بگیرند. آنها دادههای بهدست آورده از حسگرهای مختلف را دریافت، تحلیل و خیلی از مواقع باید در کمتر از چند صدم ثانیه تصمیمی دقیق بگیرند.
خودرو تشخیص میدهد شی خاصی جلو حرکتش را گرفته است در نتیجه: اول باید تشخیص دهد آن شی چیست، دوم باید تصمیم بگیرد چه عکسالعملی برای ادامه مسیر نشان دهد. آیا تصمیم توقف است یا حرکت به چپ؟ در صورت ترمز کامل خودرو پشت سر چه شرایطی دارد و حرکت به راست چه نتیجهای؟
احتمالا تا همینجا قانع شدهاید که این سیستم چقدر پیچیده و خاص است و باید شرایط و قوانین و مقررات خاص خود را داشته باشد وگرنه جولان آنها بهصورت فراگیر خصوصا در صنایع آثار مخربی در جامعه انسانی بهجا میگذارد.
شما میتوانید همین موضوع خودرو را به سلاحهای نظامی، وسایل حملونقل عمومیوخصوصی حتی گجتهای حوزه تکنولوژی و چالشیترین بحث هوش مصنوعی یعنی ربات انسان نما تعمیم دهید تا متوجه خلأ بسیار بزرگ ماجرا شوید. Responsible AI یا قوانین هوش مصنوعی هدفی جز مسئولیتپذیر کردن این علم و دنیای بزرگش ندارد.
وقتی حرف از Responsible AI میزنیم منظورمان چیست؟
جوامع مختلف تعاریف متفاوت و روشهای مختلفی در تفسیر و استفاده از کلمه قانون دارند. خیلی از آنها با قانون تخریب و خیلی به رشد و ترقی زمین کمک میکنند.
Responsible AI بهتر است با در نظر داشتن دموکراسی و اخلاق تدوین و جزییاتی مثل نحوه ارزیابی دادهها و چگونگی ارزیابی، نظارت و استقرار مدلهای هوش مصنوعی در پلتفرم و محصولات مختلف به آن اضافه شود. علاوهبر این میتواند مشخص کند که در صورت بروز اختلال یا مشکلی در زندگی مردم چه کسی مسئول آن است.
تفسیرهای مختلفی از قوانین هوش مصنوعی وجود دارد، اما هدف مشترک همه آنها رسیدن به نتیجهای منصفانه برای رشد بشر کنار سیستمی تفسیر پذیر، معتدل، منصف، امن، امین و قابل اعتماد است.
هدف از نوشتن قوانین هوش مصنوعی چیست؟
هنوز بعد از سالها رشد و بالندگی این صنعت قوانین خاصی برای آن نوشته نشده است. در ادامه به بررسی اهداف احتمالی که Responsible AI باید دنبال کنند میپردازیم.
۱. کمک به تفسیر پذیر کردن هوش مصنوعی
اولین نکته که به آن اشاره شد تفسیر پذیر بودن است. درواقع وقتی مدلی از هوش مصنوعی را تفسیر میکنیم قصدمان توضیح دلایل و چگونگی انتخاب یا پیشبینی انتخابهایش است. فکر کنید دستگاهی تشخیص میدهد شما سرطان دارید یا درخواست وام مسکنتان را رد میکند. با هر جوابی طبیعتا شما بهدنبال چراییش خواهید بود. البته این موضوع را هم باید مد نظر داشت که تفسیر بعضی مدلها سخت و تفسیر بعضی راحتتر است. Responsible AI میتوانند تعیین کنند که در چه زمینهای از مدلهای قابل تفسیر استفاده کنیم یا کجا از مدلهایی که تفسیر پذیری کمتری دارند.
۲. حرکت به سمت هوش مصنوعی منصف
هدف دوم نوشتن قانونی است که انصاف را در هوش مصنوعی نهادینه کند. ما در حال صحبت در مورد سیستمی هستیم که انواع اطلاعات را دریافت، پردازش و براساس آن نتیجهگیری میکند. چنین سیستمی با قدرتی که دارد، میتواند جانب انصاف را نسبتبه دستههای مختلف اجتماع از دست بدهد و در واقع قدم در مسیر تبعیض بگذارد.
در عمل هرچه مدلهای استفاده شده قابل پیشبینی باشند سنجش رعایت اعتدال و انصاف نیز در آنها راحتتر است. پس ما برای هوش مصنوعی به قوانینی نیاز داریم که در سنجش اعتدال و انصاف کمک حالمان باشند.
۳. هوش مصنوعی امن
موضوع دیگر امنیت است. امنیت یکی از قدیمیترین چالشهای مطرح در حوزه سختافزار و نرمافزار است و خیلی بحث غریبی برای این حوزه نیست، اما در این شاخهها با تکنیکهایی مثل رمزگذاری و تستهای نرم افزاری رفع شده است، اما در هوش مصنوعی خبری از تست و رمزگذاری نیست.
در واقع ما با مدلی روبهرو هستیم که در شرایط مختلف تصمیمهای متفاوتی میگیرد یا فرایندی دارد که درصورت مختل شدنش تصمیمگیری هم مختل میشود یا بهسمت ناهنجاری میرود. مثال عینی آنها خودروهای خودران یا رباتهاست که میتوانند آسیبهایی مثل مرگ و ویرانی به همراه داشته باشند.
۴. کیفیت در دسترسی به اطلاعات
آخرین موضوع بحث قدیمی و شیرین دادههاست که همین الآن هم در خیلی از شبکههای اجتماعی یا شرکتهای فناوری نقض و خبرش هم منتشر شده است. در هوش مصنوعی کیفیت و کمیت اطلاعاتی که مدل بهدست میآورد در تصمیم گیری بسیار اهمیت دارد. بهطور کلی هیچ مدل از هوش مصنوعی نباید اجازه استفاده از اطلاعات شخصی (پزشکی یا شرایط سیاسی و…) داشته باشد. البته خیلی از کشورها به کمپانی و شرکتهای فعال در این زمینه Responsible AI خود را ابلاغ کرده اند، اما این قوانین اصلا جنبه عمومی ندارند.
۵. اعتماد دوطرفه نتیجه اجرا قوانین
در نهایت با دنبال کردن اهداف Responsible AI که گفته شد یک نتیجه بهوجود خواهد آمد و آن اعتماد کاربر به هر محصولی است که هوش مصنوعی در آن استفاده شده. اگر این اعتماد بین کاربر و ارائه دهنده خدمت شکل نگیرد استفادهای هم در کار نخواهد بود. ساخت این اعتماد نیازمند تلاش دوطرفه است که بعد از نگارش قوانین هوش مصنوعی شکل بگیرد.
آینده Responsible AI چیست؟
درحال حاضر وقتی صحبت از قوانین هوش مصنوعی میشود، انتظار میرود، کمپانیهای بزرگ با قوانین صحیح و منصفانه خود را ملزم به رعایت کنند. شرکتهای بزرگی مثل مایکروسافت، گوگل و IBM قوانین خاص خود را دارند، اما نمیتوان منکر تناقض در قانونگذاری بین آنها شد. این درحالیست که خیلی از شرکتهای کوچک هیچ نقشه راهی هم برای تدوین قوانین اختصاصی ندارند.
راهحل بالقوه این مسئله اینست که قوانین یکسان و کلی برای تمام شرکتها تنظیم شود و آنها را ملزم به اجرا کند. نمونه بارز آنها دستورالعملهای اخلاقی اتحادیه اروپا برای هوش مصنوعی است تا شرکتهایی که قصد فعالیت در این قسمت از دنیا را دارند از آنها پیروی کنند. استفاده از Responsible AI این اطمینان را میدهد که تمام کمپانیهای موجود شرایط یکسانی را در مدلهای مختلف هوش مصنوعی دارند، اما سوال اصلی اینجاست که آیا میتوان به آنها اعتماد کرد؟
گزارش وضعیت هوش مصنوعی و ماشین لرنینگ در سال ۲۰۲۰ از ۳۷۴ کمپانی که از تکنولوژی هوش مصنوعی استفاده میکند منتشر شده که نشان میدهد: هوش مصنوعی برای ۷۵ درصد از آنها اهمیت بسیار زیادی دارد ولی فقط ۲۵ درصد پایبند به قوانین هوش مصنوعی و رعایت انصاف و اخلاق در آن هستند.
این گزارش نشان میدهد جواب سوال بالا (خیر) است. مردم نباید و نمیتوانند به کمپانیهای مدعی اعتماد کنند. برای اینکه دستورالعملها موثر باشند، باید اجرا شوند. این به معنی تبدیل شدن هر دستورالعمل در این زمینه به قانون است. قانونی که رعایت آن الزامی و تخطی از آن مجازات در بر دارد.
Responsible AI در حال حاضر کجاست؟
مسیری که فعلا جهان در آن قرار دارد زمان است. تقریبا همه به اهمیت تصویب Responsible AI پیبرده و درصدد تدوین آنها هستند. با شرایطی که اتحادیه اروپا ایجاد کرده اولین قدم برای مسئولیتپذیر کردن هوش مصنوعی برداشته شده. شرکتهای بزرگی مثل گوگل، اپل، مایکروسافت و فیسبوک نیز همین درخواست را دارند پس جامعه جهانی حالا نیازمند زمان برای پختهتر شدن نظریهها و تدوین قوانین است. مهمترین موضوع فعلی، زمان برای شکل گیری اتحادی جهانی در مسئولیتپذیرکردن هوش مصنوعی است.
نظر شما چیست؟ آیا هوش مصنوعی در مسیر صلح آمیز قدم برمیدارد یا مثل انرژی هستهای بهسمت ویران کردن حرکت میکند؟ نظر خود را با ما به اشتراک بگذارید و شما تکمیل کننده مقالهای باشید که احتمالا نقصهایی دارد. حالا که با هوش مصنوعی آشنا شدید اگر به یادگیری این حوزه علاقهمندید سری به دورههای آموزش ماشین لرنینگ آکادمی آمانج بزنید.
The post Responsible AI یا قوانین هوش مصنوعی، کجا هستند؟ appeared first on آمانج آکادمی مرکز آموزش های برنامه نویسی ، دیجیتال مارکتینگ و دیزاین.