آزمایش اثربخشی قانون هوش مصنوعی اتحادیه اروپا با ابتکار حلقه باز

در سال 2021 راه اندازی کردیم حلقه بازابتکاری جهانی که دولت‌ها، کسب‌وکارهای فناوری، دانشگاهیان و نمایندگان جامعه مدنی را گرد هم می‌آورد تا به توسعه سیاست‌های آینده‌نگر از طریق رویکردهای آزمایشی مانند نمونه‌سازی سیاست کمک کنند. از طریق حلقه باز برنامه متمرکز بر قانون هوش مصنوعیبیش از 50 شرکت اروپایی هوش مصنوعی، شرکت‌های کوچک و متوسط ​​و استارت‌آپ الزامات کلیدی قوانین آتی را آزمایش کردند تا ببینند آیا می‌توان آن‌ها را شفاف‌تر، امکان‌پذیرتر و مؤثرتر کرد. در این کارآزمایی، کسب‌وکارهای اروپایی مجموعه‌ای از شش توصیه را شناسایی کردند که به اطمینان از پایبندی قانون هوش مصنوعی به هدف خود برای ایجاد و استقرار هوش مصنوعی قابل اعتماد کمک می‌کند. در اینجا چیزی است که آنها پیدا کردند:

  1. مسئولیت‌های بین بازیگران در امتداد زنجیره ارزش هوش مصنوعی باید برای کاهش عدم اطمینان بهتر تعریف شود: نقش ها و مسئولیت ها، از ارائه دهندگان گرفته تا کاربران، باید حول روابط پویا و به هم پیوسته بین همه کسانی که در توسعه، استقرار و نظارت بر سیستم های هوش مصنوعی دخیل هستند، کار کنند.
  2. راهنمایی بیشتر در مورد ارزیابی ریسک و الزامات کیفیت داده مورد نیاز است: اکثر شرکت‌کنندگان گفتند حتی اگر سیستم‌های هوش مصنوعی آن‌ها طبق تعریف پرخطر نباشد، ارزیابی ریسک را انجام می‌دهند، اما پیش‌بینی اینکه کاربران یا اشخاص ثالث چگونه ممکن است از سیستم‌های هوش مصنوعی استفاده کنند، چالش برانگیز بود. این امر به ویژه در مورد SME ها صادق است که از راهنمایی های بیشتری بهره مند می شوند.
  3. الزامات کیفیت داده باید واقع بینانه باشد: الزام به مجموعه داده‌های «کامل» و «بدون خطا» توسط شرکت‌کنندگان حلقه باز غیرواقعی تلقی شد و آنها استفاده از رویکرد «بهترین تلاش» را به جای آن، همانطور که توسط پارلمان اروپا پیشنهاد شد، تشویق می‌کنند.
  4. گزارش باید واضح و ساده باشد: شرکت‌کنندگان فکر می‌کردند که نحوه تفسیر و مطابقت با الزامات مستندات فنی نامشخص است و خواستار راهنمایی‌ها و الگوهای واضح‌تر شدند. آنها همچنین نسبت به وضع قوانین بسیار جزئی که می تواند تشریفات اداری بیش از حد ایجاد کند، هشدار دادند.
  5. تمایز مخاطبان مختلف برای الزامات شفافیت و اطمینان از کارگران واجد شرایط کافی برای نظارت انسانی بر هوش مصنوعی: شرکت‌های اروپایی می‌خواهند اطمینان حاصل کنند که کاربران سیستم‌های هوش مصنوعی خود به وضوح در مورد نحوه کار با آن‌ها مطلع هستند. برای اطمینان از نظارت صحیح انسانی، کسب و کارها تاکید کردند که سطح جزئیات دستورالعمل ها و توضیحات بسته به مخاطبان هدف بسیار متفاوت است.
  6. حداکثر کردن پتانسیل سندباکس های نظارتی برای تقویت و تقویت نوآوری: شرکت کنندگان جعبه های شنی نظارتی را مکانیزم مهمی برای تقویت نوآوری و تقویت انطباق در نظر گرفتند و احساس کردند که می‌توانند با اطمینان حقوقی و محیط مشارکتی بین تنظیم‌کننده و شرکت‌ها مؤثرتر شوند.

می توانید گزارش کامل را بخوانید اینجا.





منبع

با پیشرفت هوش مصنوعی، مقررات آن نیز پیشرفت می کند. اتحادیه اروپا با قانون آینده هوش مصنوعی پیشرو است، که این پتانسیل را دارد که یک قانون صحنه ساز باشد که هدف آن معرفی یک چارچوب قانونی و نظارتی مشترک که همه انواع هوش مصنوعی را در بر می گیرد. در طول فرآیند توسعه آن، بسیار مهم است که شرکت‌های نوآور در هر اندازه، به‌ویژه استارت‌آپ‌ها، صدایشان شنیده شود تا بتوانیم اطمینان حاصل کنیم که مقررات هوش مصنوعی شفاف، فراگیر است و نوآوری و رقابت بیشتر را تقویت می‌کند.

چگونه قانون هوش مصنوعی را در اروپا آزمایش کردیم

هوش مصنوعی هسته اصلی کار ما است و به بهبود محصولات موجود ما کمک می کند و به عنوان پایه ای برای برنامه های کاربردی جدید نوآورانه عمل می کند. اخیراً در جذب تخیل عموم مردم به نقطه عطفی رسیده است و مردم بیشتر از کاربردها و مزایای فراوان آن آگاه می شوند.

این پیشنهادات نشان می‌دهد که چگونه می‌توان قانون هوش مصنوعی را به نفع جامعه و دستیابی به اهداف آن بهبود بخشید. این نشان می‌دهد که چگونه می‌توان این رویکرد نمونه‌سازی آزمایشی و چند ذی‌نفعی را برای فناوری‌های نوظهور برای کمک به توسعه سیاست‌های مؤثر و مبتنی بر شواهد به کار برد.