با پیشرفت هوش مصنوعی مولد، نهادهای نظارتی و واحدهای مدیریت ریسک در تلاشند تا با این پیشرفت‌ها همگام شوند

با پیشرفت هوش مصنوعی مولد، نهادهای نظارتی و واحدهای مدیریت ریسک در تلاشند تا با این پیشرفت‌ها همگام شوند

ترجمه از :مهدی حسن زاده ، کارشناسی ارشد MBA،دانشکده مدیریت و اقتصاد،دانشگاه صنعتی شریف

زیر نظر:دکتر آرش خلیلی نصر،عضو هیات علمی دانشکده مدیریت و اقتصاد،دانشگاه صنعتی شریف

هوش مصنوعی و به‌ویژه دستاورد خیره‌کنندۀ آن، یعنی هوش مصنوعی مولد، با سرعتی چشمگیر در حال توسعه است و قانون‌گذاران تحت فشارند تا با این پیشرفت‌ها همگام شوند

پیشرفت سریع هوش مصنوعی مولد (Gen AI) نهادهای نظارتی سراسر جهان را بر آن داشته تا برای درک، کنترل و تضمین ایمنی این فناوری تلاش کرده و در عین حال مزایای بالقوۀ آن را نیز حفظ کنند. در صنایع مختلف، پذیرش این فناوری چالشی تازه برای واحدهای ریسک و انطباق ایجاد کرده است: چگونه می‌توان از هوش مصنوعی مولد در چارچوب‌های نظارتی در حال تحول (و ناهمگون) استفاده کرد؟

همزمان با تلاش دولت‌ها و قانون‌گذاران برای تعریف اینکه این محیط کنترلی چگونه باید باشد، رویکردهای در حال شکل‌گیری در بسیاری موارد پراکنده و ناسازگارند؛ مسئله‌ای که مسیر حرکت سازمان‌ها را دشوارتر کرده و عدم‌اطمینان قابل‌توجهی به وجود آورده است.

در این مقاله، ضمن بررسی ریسک‌های مرتبط با هوش مصنوعی و هوش مصنوعی مولد و دلایل جلب توجه نهادهای نظارتی، نقشۀ راهی استراتژیک ارائه می‌دهیم تا به واحدهای مدیریت ریسک در عبور از محیط نظارتی ناهمگون و در حال تغییری که نه‌تنها بر هوش مصنوعی مولد بلکه بر کل حوزۀ هوش مصنوعی متمرکز است، کمک کنیم.

چرا هوش مصنوعی مولد به تنظیم مقررات نیاز دارد؟

پیشرفت چشمگیر هوش مصنوعی، به‌ویژه در حوزۀ هوش مصنوعی مولد، به‌سرعت توجه عموم مردم را به خود جلب کرده است. برای مثال، چت‌جی‌پی‌تی به یکی از سریع‌ترین پلتفرم‌های در حال رشد تبدیل شد و تنها ظرف پنج روز پس از عرضه به یک میلیون کاربر رسید. با توجه به گسترۀ وسیع کاربردهای هوش مصنوعی مولد (از افزایش بهره‌وری و دسترسی سریع‌تر به دانش گرفته تا ایجاد تأثیر اقتصادی سالانه‌ای بین 2.6 تا 4.4 تریلیون دلار این استقبال گسترده چندان جای تعجب ندارد.

با این حال، انگیزۀ اقتصادی برای استفادۀ صحیح از هوش مصنوعی و هوش مصنوعی مولد وجود دارد. شرکت‌های توسعه‌دهندۀ هوش مصنوعی با این ریسک مواجه هستند که اگر پلتفرم‌هایشان به اندازۀ کافی کامل و بی‌نقص نباشند، با عواقب جدی روبه‌رو شوند؛ چراکه حتی یک خطا می‌تواند بسیار پرهزینه باشد. برای مثال، شرکت‌های بزرگ فعال در حوزۀ هوش مصنوعی مولد در پی بروز پدیدۀ هذیان‌گویی (تولید اطلاعات نادرست یا غیرمنطقی توسط هوش مصنوعی) شاهد افت چشمگیر ارزش بازار خود بوده‌اند.

گسترش سریع هوش مصنوعی مولد باعث برجسته‌تر شدن انواع ریسک‌ها شده است. نگرانی‌های اصلی پیرامون این فناوری شامل چگونگی توسعۀ مدل‌ها و سیستم‌ها، شیوۀ استفاده از آن‌ها و چالش‌های مرتبط است.

به‌طور کلی، موضوعاتی چون کمبود شفافیت در عملکرد سیستم‌های هوش مصنوعی مولد، داده‌های مورد استفاده برای آموزش این سیستم‌ها، مسائل مربوط به سوگیری و انصاف، نقض احتمالی حقوق مالکیت فکری، نقض حریم خصوصی، ریسک‌های مرتبط با اشخاص ثالث و نگرانی‌های امنیتی از جمله مهم‌ترین نگرانی‌هایی مطرح‌شده به شمار می‌روند.

به فهرست این نگرانی‌ها باید مسئلۀ انتشار اطلاعات نادرست را نیز اضافه کرد؛ مواردی مانند تولید خروجی‌های اشتباه یا دستکاری‌شده و همچنین محتوای مضر یا مخرب. جای تعجب نیست که نهادهای نظارتی در تلاشند تا آسیب‌های احتمالی ناشی از این فناوری را کاهش دهند. آن‌ها می‌کوشند برای شرکت‌هایی که در زمینۀ توسعه یا استفاده از هوش مصنوعی مولد فعالیت می‌کنند، قطعیت قانونی ایجاد کنند. در عین حال، قانون‌گذاران می‌خواهند بدون ایجاد ترس از پیامدهای ناشناخته، از نوآوری حمایت کنند.

هدف، ایجاد استانداردهای نظارتی بین‌المللیِ هماهنگی است که به تقویت تجارت بین‌المللی و تسهیل انتقال داده‌ها کمک می‌کنند. در همین راستا، نوعی اجماع شکل گرفته است: جامعۀ توسعه‌دهندگان هوش مصنوعی مولد خود از پیشگامان حمایت از اعمال کنترل‌های نظارتی بر توسعۀ این فناوری هستند و خواهان اجرایی شدن این کنترل‌ها در سریع‌ترین زمان ممکن شده‌اند. اکنون دیگر بحث بر سر این مسئله نیست که آیا باید قوانین را وضع کرد یا خیر، بلکه بحث بر سر این مسئله است که این کار چگونه باید انجام شود.

چشم‌انداز کنونی نظارت بین‌المللی بر حوزۀ هوش مصنوعی

تا به امروز، هیچ کشوری قانون جامعی برای هوش مصنوعی یا هوش مصنوعی مولد تصویب نکرده است، اما چند کشور و منطقه از جمله برزیل، چین، اتحادیۀ اروپا، سنگاپور، کرۀ جنوبی و ایالات متحده پیشگام تلاش‌های قانون‌گذاری در این زمینه بوده‌اند. رویکرد هرکدام از آن‌ها نسبت به قانون‌گذاری متفاوت است: از تنظیم قوانین گسترده برای هوش مصنوعی که توسط مقررات موجود در زمینۀ حفاظت از داده‌ها و امنیت سایبری پشتیبانی می‌شوند (اتحادیۀ اروپا و کرۀ جنوبی) گرفته تا تصویب قوانین ویژه برای صنایع مختلف (ایالات متحده) و رویکردهای مبتنی بر اصول یا رهنمودهای کلی (برزیل، سنگاپور و ایالات متحده). هر یک از این رویکردها مزایا و معایب خود را دارند و انتظار می‌رود برخی بازارها در گذر زمان از اصول کلی به سمت مقررات سخت‌گیرانه‌تر حرکت کنند (شکل 1).

با وجود تفاوت در رویکردها، مضامین مشترکی در چشم‌انداز جهانی نظارت بر هوش مصنوعی پدیدار شده‌اند:

  • شفافیت: نهادهای نظارتی به دنبال این هستند که خروجی‌های تولیدشده توسط هوش مصنوعی قابل‌پیگیری و شفاف باشند. هدف آن‌ها این است که کاربران هنگام کار با هر سیستم هوش مصنوعی بدانند که در حال تعامل با یک ماشین هستند و اطلاعاتی درباره حقوق خودشان و همچنین قابلیت‌ها و محدودیت‌های آن سیستم در اختیار داشته باشند.
  • عاملیت انسان و نظارت: در حالت ایده‌آل، سیستم‌های هوش مصنوعی باید به‌عنوان ابزارهایی در خدمت انسان توسعه یابند. این سیستم‌ها باید کرامت انسانی و استقلال فردی را حفظ کنند و به گونه‌ای طراحی شوند که امکان کنترل و نظارت مناسب توسط انسان‌ها وجود داشته باشد.
  • پاسخگویی: نهادهای نظارتی به دنبال سازوکارهایی هستند که مسئولیت‌پذیری، پاسخگویی و امکان جبران خسارت در ارتباط با سیستم‌های هوش مصنوعی را تضمین کنند. در عمل، این به معنای جلب حمایت مدیران ارشد، ارائه آموزش در سطح سازمان و ایجاد آگاهی از مسئولیت‌های فردی در میان کارکنان است.
  • ایمنی و استواری فنی: قانون‌گذاران در تلاشند تا آسیب‌های غیرمنتظره و ناخواسته را کاهش دهند و این کار را از طریق اطمینان از استواری سیستم‌های هوش مصنوعی انجام می‌دهند؛ به این معنا که این سیستم‌ها باید مطابق انتظار عمل کنند، پایدار باقی بمانند، بتوانند خطاهای کاربران را اصلاح کنند، در برابر تلاش‌های مخرب اشخاص ثالث برای دستکاریِ سیستم مقاوم باشند و برای رفع هرگونه ناکامی در برآورده کردن این معیارها، راهکارهای جایگزین و اقدامات جبرانی مناسبی داشته باشند.

شکل 1

مقررات مرتبط با حکمرانی هوش مصنوعی در کشورهای مختلف متفاوت است.

داده‌های گردآوری‌شده تا نوامبر 2023، غیرجامع

تعدادی از کشورهای بدون قوانین کلی هوش مصنوعی

  • استرالیا
  • هند
  • نیوزیلند
  • عربستان سعودی

پیشنهاد یا تکمیل قوانین کلی هوش

  • برزیل
  • کانادا
  • چین
  • کره جنوبی
  • اتحادیه اروپا

نوع سیاست:اصول غیرالزام‌آور (مثال، OECD)

  • ژاپن
  • سنگاپور
  • امارات متحده عربی
  • بریتانیا
  • ایالات متحده
  • سایر کشورهای عضو OECD

منبع: سازمان همکاری و توسعه اقتصادی (OECD)، تحلیل مکینزی

  • تنوع، عدم‌تبعیض و رعایت انصاف: از دیگر اهداف نهادهای نظارتی این است که سیستم‌های هوش مصنوعی عاری از هرگونه سوگیری عمل کنند و خروجی‌های آن‌ها به تبعیض یا رفتار ناعادلانه با افراد منجر نشود.
  • حریم خصوصی و حکمرانی داده‌ها: نهادهای نظارتی می‌خواهند توسعه و استفاده از سیستم‌های هوش مصنوعی طبق قوانین موجود حریم خصوصی و حفاظت از داده‌ها باشد و این سیستم‌ها داده‌هایی با کیفیت و یکپارچگی بالا را پردازش کنند.
  • رفاه اجتماعی و زیست‌محیطی: نهادهای نظارتی تمایل شدیدی دارند که سیستم‌های هوش مصنوعی پایدار باشند، با محیط‌زیست (برای مثال، در مصرف انرژی) سازگار باشند و برای همۀ افراد مفید باشند. همچنین خواستار نظارت و ارزیابی مداوم اثرات بلندمدت این فناوری بر افراد، جامعه و دموکراسی هستند.

با وجود برخی وجوه مشترک در اصول راهنمای مرتبط با هوش مصنوعی، شیوۀ اجرا و عبارات به‌کاررفته توسط یک نهاد نظارتی یا منطقه با نهادهای نظارتی و مناطق دیگر متفاوت است. بسیاری از قوانین هنوز جدید هستند و بنابراین ممکن است به‌طور مکرر به‌روزرسانی شوند (شکل 2). این موضوع برنامه‌ریزی استراتژیک بلندمدت در زمینۀ هوش مصنوعی را برای سازمان‌ها دشوار می‌کند.

این مسائل برای سازمان‌ها چه معنایی دارد؟

ممکن است برخی سازمان‌ها وسوسه شوند که صبر کنند و ببینند چه مقرراتی در زمینۀ هوش مصنوعی تصویب می‌شوند. اما اکنون زمان اقدام است. سازمان‌هایی که در این مرحله اقدام نکنند، ممکن است در آینده با ریسک‌های بزرگ حقوقی، اعتباری، سازمانی و مالی روبه‌رو شوند. برخی بازارها از جمله ایتالیا، به دلیل نگرانی‌های مربوط به حریم خصوصی، شکایات مربوط به نقض حق نشر از سوی چندین فرد و نهاد و دعاوی مربوط به تهمت و افترا، دسترسی به چت‌جی‌پی‌تی را ممنوع کرده‌اند.

احتمالاً در آینده موانع بیشتری وجود خواهد داشت. هرچه تأثیرات منفی هوش مصنوعی بیشتر شناخته و اطلاع‌رسانی شوند، نگرانی‌های عمومی نیز افزایش خواهد یافت. این موضوع می‌تواند موجب بی‌اعتمادی عمومی نسبت به شرکت‌های توسعه‌دهنده یا استفاده‌کننده از هوش مصنوعی شود.

سازمان‌ها در حین برنامه‌ریزی استراتژی‌های بلندمدت هوش مصنوعی خود با چالش رعایت مقررات متنوع روبرو هستند.

شکل 2

تلاش‌های سیاستی و نظارتی مرتبط با حکمرانی هوش مصنوعی در سراسر جهان همچنان در حال انجام است.

نمونه‌ها بر اساس نوع سیاست یا تلاش و زمان پیشنهاد گنجانده شده‌اند؛ غیرجامع

یک خطا در این مرحله می‌تواند بسیار پرهزینه باشد. سازمان‌ها ممکن است به دلیل نقض قوانین با جریمه‌های سنگینی مواجه شوند (برای مثال، طبق قانون پیشنهادی اتحادیۀ اروپا برای هوش مصنوعی، جریمه‌ای تا سقف 7 درصد از درآمد سالانۀ جهانی). تهدید دیگری که وجود دارد، زیان مالی ناشی از کاهش اعتماد مشتریان یا سرمایه‌گذاران است که می‌تواند به کاهش قیمت سهام، از دست دادن مشتریان یا کند شدن روند جذب مشتری منجر شود. انگیزه برای اقدام سریع زمانی دوچندان می‌شود که بدانیم اگر مدل‌های حکمرانی و سازمانی مناسب برای هوش مصنوعی از ابتدا ایجاد نشوند، ممکن است در آینده به علت تغییر مقررات، وقوع رخنه‌های اطلاعاتی یا حملات سایبری، این مدل‎ها به اصلاحات اساسی نیاز پیدا کنند. اصلاح سیستم پس از بروز مشکل، نه تنها بسیار پرهزینه است، بلکه اجرای یکپارچۀ آن در سراسر سازمان هم دشوار خواهد بود.

آیندۀ دقیق تعهدات قانونی هنوز مبهم است و ممکن است بسته به منطقۀ جغرافیایی و نقش خاص هوش مصنوعی در زنجیرۀ ارزش، متفاوت باشد. با این حال، برخی اقدامات وجود دارند که سازمان‌ها می‌توانند همین امروز انجام دهند تا در برابر تغییرات قریب‌الوقوع قوانین آمادگی داشته باشند.

این اقدامات پیش‌دستانه را می‌توان در چهار حوزۀ کلیدی دسته‌بندی کرد که از تلاش‌های موجود برای حفاظت از داده‌ها، حریم خصوصی و امنیت سایبری نشأت می‌گیرند، چراکه این حوزه‌ها اشتراکات زیادی با یکدیگر دارند:

شفافیت: ایجاد یک فهرست و طبقه‌بندی از مدل‌ها، دسته‌بندی آن‌ها بر اساس مقررات و ثبت تمام کاربردهای آن‌ها در یک مخزن مرکزی که برای افراد داخل و خارج از سازمان قابل‌مشاهده باشد. همچنین باید مستندات دقیق و روشنی از کاربردهای داخلی و خارجی هوش مصنوعی و هوش مصنوعی مولد، عملکرد این سیستم‌ها، ریسک‌ها و کنترل‌هایشان تهیه شود. علاوه بر این، لازم است توضیح داده شود که هر مدل چطور توسعه یافته است، چه خطراتی دارد و قرار است به چه شکلی استفاده شود.

حکمرانی: پیاده‌سازی یک ساختار حکمرانی برای هوش مصنوعی و هوش مصنوعی مولد که نظارت، اختیار و پاسخگویی کافی را هم در داخل سازمان و هم در تعامل با اشخاص ثالث و نهادهای نظارتی تضمین کند. در این ساختار، باید تمام نقش‌ها و مسئولیت‌های مربوط به مدیریت هوش مصنوعی و هوش مصنوعی مولد مشخص شوند و برنامه‌ای برای مدیریت حوادث احتمالی ناشی از این فناوری‌ها تدوین گردد. این ساختار حکمرانی باید آن‌قدر قوی باشد که تغییرات نیروی انسانی و گذر زمان آن را تضعیف نکند، ولی در عین حال آن‌قدر منعطف و چابک باشد که بتواند با تغییرات فناوری، نیازهای جدید کسب‌وکار و الزامات جدید نظارتی سازگار شود.

مدیریت داده‌ها، مدل و فناوری: هوش مصنوعی و هوش مصنوعی مولد به مدیریت قوی داده‌ها، مدل و فناوری نیاز دارند:

  • مدیریت داده‌ها: داده‌ها پایه و اساس هر مدل هوش مصنوعی و هوش مصنوعی مولد هستند. کیفیت داده‌های ورودی مستقیماً روی کیفیت خروجی مدل تأثیر می‌گذارد. مدیریت صحیح و قابل‌اعتماد داده‌ها به معنای آگاهی کامل از منابع داده، دسته‌بندی آن‌ها، اطمینان از کیفیت و اصل و نسب داده‌ها، رعایت مالکیت فکری و محافظت از حریم خصوصی است.
  • مدیریت مدل: سازمان‌ها می‌توانند اصول و چارچوب‌هایی محکمی برای توسعه و استفاده از هوش مصنوعی و هوش مصنوعی مولد ایجاد کنند تا ریسک‌های سازمان را به حداقل برسانند و اطمینان حاصل کنند که تمام مدل‌های هوش مصنوعی و هوش مصنوعی مولد، انصاف و کنترل‌های سوگیری، عملکرد صحیح، شفافیت، وضوح و امکان نظارت انسانی را رعایت می‌کنند. آموزش همۀ کارکنان سازمان دربارۀ توسعۀ صحیح و استفادۀ درست از این فناوری‌ها، برای کاهش ریسک‌ها کاملاً ضروری است. همچنین لازم است طبقه‌بندی ریسک و چارچوب ریسک سازمان طوری تدوین شود که ریسک‌های مربوط به هوش مصنوعی مولد را هم در بر بگیرد، نقش‌ها و مسئولیت‌های مرتبط با مدیریت این ریسک‌ها تعیین شوند و ارزیابی‌ها و کنترل‌های ریسک با مکانیزم‌های مناسب آزمایش و نظارت برای کنترل و کاهش ریسک‌ها برقرار گردد. مدیریت داده و مدل باید فرایندی چابک و مستمر داشته باشد و نباید فقط به‌عنوان کاری نمادین در ابتدای پروژه‌های توسعه تلقی شود.
  • مدیریت فناوری و امنیت سایبری: باید ساختار امنیت سایبری و فناوری قدرتمندی ایجاد شود که شامل کنترل دسترسی، فایروال‌ها، لاگ‌ها، نظارت و موارد مشابه باشد تا از دسترسی غیرمجاز یا سوءاستفاده جلوگیری کرده و بتواند حوادث احتمالی را خیلی زود شناسایی کند.

حقوق فردی: کاربران را آموزش دهید. آن‌ها باید بدانند که با سیستم هوش مصنوعی تعامل دارند و همچنین دستورالعمل‌های روشنی برای نحوۀ استفاده از این سیستم‌ها در اختیارشان قرار دهید. لازم است یک نقطۀ تماس مشخص ایجاد شود تا شفافیت لازم را فراهم سازد و کاربران بتوانند حقوق خود را اعمال کنند، از جمله چگونگی دسترسی به داده‌ها، نحوۀ عملکرد مدل‌ها و شیوۀ انصراف از به‌کارگیری پلتفرم. در نهایت باید رویکردی مشتری‌محور در طراحی و کاربرد هوش مصنوعی اتخاذ شود که هم پیامدهای اخلاقی استفاده از داده‌ها و هم تأثیر بالقوۀ آن‌ها بر مشتریان را در نظر بگیرد. ازآنجاکه همواره آنچه قانونی است الزاماً اخلاقی نیست، در اولویت قرار دادن ملاحظات اخلاقی در استفاده از هوش مصنوعی از اهمیت بالایی برخوردار است.

هوش مصنوعی و هوش مصنوعی مولد همچنان تأثیر قابل‌توجهی بر بسیاری از سازمان‌ها خواهند گذاشت، چه آن‌هایی که ارائه‌دهندۀ مدل‌های هوش مصنوعی هستند و چه آن‌هایی که از این سیستم‌ها استفاده می‌کنند. با وجود اینکه چشم‌انداز نظارتی به‌سرعت در حال تغییر است و همچنان در مناطق جغرافیایی و صنایع مختلف هماهنگ نشده و ممکن است غیرقابل پیش‌بینی به نظر برسد، سازمان‌هایی که از هم‌اکنون در جهت بهبود نحوۀ ارائه و به‌کارگیری هوش مصنوعی گام برمی‌دارند، از مزایای ملموسی برخوردار خواهند شد.

ناکامی در مدیریت محتاطانۀ هوش مصنوعی و هوش مصنوعی مولد می‌تواند به خسارات حقوقی، اعتباری، سازمانی و مالی منجر شود. با این حال، سازمان‌ها می‌توانند با تمرکز بر شفافیت، حکمرانی، حقوق فردی و مدیریت فناوری و داده‌ها، خود را برای آینده آماده کنند. رسیدگی به این حوزه‌ها، بنیانی محکم برای حکمرانی داده‌ها و کاهش ریسک آینده فراهم می‌کند و در عین حال عملیات مرتبط با امنیت سایبری، مدیریت و حفاظت از داده‌ها و استفادۀ مسئولانه از هوش مصنوعی را تسهیل می‌کند. شاید این موضوع مهم‌تر از هر چیز دیگری باشد که اجرای اقدامات حفاظتی به سازمان‌ها کمک می‌کند تا جایگاه خود را به‌عنوان ارائه‌دهندگانی مورد اعتماد تثبیت کنند.

اشتراک گذاری:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

15 + پانزده =

سایر مقالات