​آینده نگر

نشست جهانی هوش مصنوعی در پاریس: امنیت یا قدرت؟ مساله این است...

مقدمه مقاله: در هفته ای که گذشت، پاریس میزبان سومین اجلاس جهانی هوش مصنوعی بود. رهبران سیاسی، مدیران ارشد فناوری و کارشناسان از سراسر جهان گرد هم آمدند تا درباره تأثیرات سیاسی، فرهنگی، اجتماعی و اقتصادی هوش مصنوعی گفتگو کنند. در پایان این رویداد، ۶۰ نهاد بیانیه‌ای با عنوان «هوش مصنوعی فراگیر و پایدار برای مردم و سیاره» را امضا کردند. اما ایالات متحده و بریتانیا از امضای این بیانیه خودداری کردند، که نشان‌دهنده تغییرات جدی در روایت‌های مربوط به ایمنی هوش مصنوعی و حکمرانی بین‌المللی آن است.

اولین اجلاس ایمنی هوش مصنوعی در سال ۲۰۲۳ در بریتانیا برگزار شد و نتایج ملموسی در بر داشت، از جمله تأسیس مؤسسات ایمنی هوش مصنوعی (AISIs) برای پژوهش و ارزیابی مدل‌های هوش مصنوعی. این اجلاس با هدف بررسی خطرات و راهکارهای کاهش آن‌ها برگزار شد. اجلاس بعدی در سئول نیز تأکید مجددی بر تعهد به ایمنی هوش مصنوعی و گسترش بحث به موضوعاتی همچون نوآوری و شمولیت داشت. کشورهای مختلفی متعهد به تأسیس مؤسسات ایمنی هوش مصنوعی شدند و شبکه‌ای بین‌المللی برای هماهنگی بیشتر ایجاد کردند.

اجلاس پاریس با اهداف بلندپروازانه‌ای برگزار شد و به موضوعاتی مانند تغییرات اقلیمی و مصرف انرژی نیز پرداخت. اهداف این اجلاس شامل ایجاد اعتماد به هوش مصنوعی و حکمرانی جهانی در این حوزه بود.

 

 

این هفته، پاریس میزبان سومین اجلاس جهانی هوش مصنوعی بود.

رهبران سیاسی، مدیران ارشد فناوری و کارشناسانی از سراسر جهان به پایتخت فرانسه آمدند تا درباره دستور کاری گسترده در زمینه تأثیرات سیاسی، فرهنگی، اجتماعی و اقتصادی هوش مصنوعی گفتگو کنند. در پایان این رویداد، ۶۰ نهاد بیانیه‌ای با عنوان «هوش مصنوعی فراگیر و پایدار برای مردم و سیاره» را امضا کردند که هدف آن همسو کردن توسعه هوش مصنوعی با اهداف توسعه پایدار (SDGs) بود.

اما ایالات متحده و بریتانیا، دو کشور پیشرو در حوزه هوش مصنوعی، از امضای این بیانیه خودداری کردند.

این اقدام چندان غیرمنتظره نبود، زیرا اوایل همین هفته، جِی. دی. ونس، معاون رئیس‌جمهور آمریکا، مقررات سخت‌گیرانه در حوزه هوش مصنوعی را مورد انتقاد قرار داده و بر تعهد ایالات متحده به رویکرد «عدم مداخله» تأکید کرده بود. سخنگوی نخست‌وزیر بریتانیا، کی‌یر استارمر، نیز اظهار داشت که این ابتکار خاص با منافع کشورش همخوانی ندارد. این عدم پذیرش‌ها نشان‌دهنده تغییرات جدی در روایت‌های مربوط به ایمنی هوش مصنوعی و حکمرانی بین‌المللی آن است.

 

 

از بلچلی تا سئول – امیدهای اولیه برای یک تلاش جهانی

اولین اجلاس ایمنی هوش مصنوعی در اواخر سال ۲۰۲۳ در پارک بلچلی، واقع در باکینگهام‌شر بریتانیا، برگزار شد. هدف این گردهمایی آغاز گفت‌وگویی چندسطحی درباره خطرات فناوری‌های هوش مصنوعی، به‌ویژه مدل‌های پیشرفته، و بررسی اقدامات هماهنگ بین‌المللی برای کاهش این خطرات بود.

این اجلاس نتایج ملموسی در بر داشت، از جمله تصویب «بیانیه بلچلی درباره ایمنی هوش مصنوعی»، که در آن ۲۸ کشور (از جمله ایالات متحده و چین) متعهد شدند هوش مصنوعی را به شیوه‌ای ایمن، انسان‌محور، قابل اعتماد و مسئولانه توسعه دهند. همچنین، مؤسسات ایمنی هوش مصنوعی (AISIs) برای پژوهش و ارزیابی مدل‌های هوش مصنوعی، با هدایت بریتانیا و آمریکا، تأسیس شدند. افزون بر این، گزارش «وضعیت علم» درباره قابلیت‌ها و خطرات هوش مصنوعی پیشرفته نیز پیش از اجلاس بعدی اعلام شد.

برجسته‌ترین دستاورد، ایجاد مؤسسات ایمنی هوش مصنوعی (AISIs) بود. این نهادها، اگرچه قدرت قانون‌گذاری ندارند، اما با دولت‌ها و صنعت همکاری می‌کنند تا استراتژی‌های نظارتی را شکل دهند، تحقیقات ایمنی را پیش ببرند و پایه‌های حکمرانی بین‌المللی در حوزه هوش مصنوعی را بنا نهند.

 

 

پس از اجلاس بلچلی، در ماه می ۲۰۲۴، نشست سئول و «مجمع جهانی هوش مصنوعی» برگزار شد. این اجلاس کوچک‌تر با هدف تأیید مجدد تعهد به ایمنی هوش مصنوعی، ارائه تدابیر موجود و گسترش بحث به موضوعاتی همچون نوآوری و شمولیت شکل گرفت. در این نشست، یوشوا بنجیو، از پیشگامان هوش مصنوعی، نسخه‌ای موقت از «گزارش علمی بین‌المللی درباره ایمنی هوش مصنوعی پیشرفته» را ارائه کرد که به بررسی پتانسیل، خطرات و راهکارهای کاهش تهدیدهای هوش مصنوعی عمومی می‌پرداخت.

با وجود کاهش توجه عمومی، اجلاس سئول همچنان به حکمرانی جهانی در زمینه هوش مصنوعی کمک کرد. در این رویداد، ۱۰ کشور و اتحادیه اروپا متعهد شدند که مؤسسات ایمنی هوش مصنوعی تأسیس کرده و یک شبکه بین‌المللی برای هماهنگی بیشتر ایجاد کنند. از آن زمان، ژاپن، کره جنوبی، سنگاپور، فرانسه و کانادا این مؤسسات را راه‌اندازی کرده‌اند، و اتحادیه اروپا نیز اعلام کرد که دفتر جدید هوش مصنوعی‌اش این نقش را بر عهده خواهد گرفت.

در حالی که چین از تعهد به چنین اقداماتی خودداری کرد، دو شرکت چینی، از جمله بزرگ‌ترین ارائه‌دهنده مدل‌های زبانی بزرگ (LLM) این کشور، به سایر شرکت‌های هوش مصنوعی پیوسته و تعهداتی را در زمینه شفافیت و مدیریت ریسک امضا کردند.

 

 

سپس ترامپ و پاریس آمدند: آیا ایمنی جهانی هوش مصنوعی به پایان رسیده است؟

امانوئل مکرون، رئیس‌جمهور فرانسه، اهدافی بلندپروازانه برای سومین اجلاس هوش مصنوعی در سر داشت. او دستور کار این نشست را از بحث صرف درباره ایمنی هوش مصنوعی فراتر برد و به موضوعاتی مانند تغییرات اقلیمی و مصرف انرژی نیز پرداخت. برنامه اجلاس حول پنج محور اصلی شکل گرفت: منافع عمومی در هوش مصنوعی، آینده کار، نوآوری و فرهنگ، اعتماد به هوش مصنوعی، و حکمرانی جهانی در این حوزه.

این اجلاس همچنین تلاشی برای بازتعریف موقعیت اروپا به‌عنوان یک بازیگر کلیدی در توسعه و اجرای هوش مصنوعی و جذب سرمایه‌گذاری‌های جدید بود. یک روز پیش از آغاز اجلاس، مکرون اعلام کرد که فرانسه ۱۰۹ میلیارد یورو سرمایه‌گذاری خصوصی در زیرساخت‌های هوش مصنوعی جذب کرده است. همچنین، در روز افتتاحیه، اتحادیه اروپا از ابتکار "قهرمانان هوش مصنوعی" رونمایی کرد که شامل ۵۸ میلیارد یورو سرمایه عمومی و تعهد ۷۰ شرکت اروپایی به سرمایه‌گذاری ۱۵۰ میلیارد یورویی در پژوهش و توسعه هوش مصنوعی بود.

 

 

با این حال، علی‌رغم این اعلامیه‌های پرطمطراق، اجلاس پاریس در برخی جنبه‌ها ناکام ماند. بسیاری از کارشناسان و شرکت‌کنندگان معتقد بودند که رقابت میان آمریکا و چین برای تسلط بر حوزه هوش مصنوعی موجب سرعت گرفتن توسعه این فناوری شده و ایمنی آن را به حاشیه رانده است. گواه این امر آن بود که بیانیه پایانی اجلاس هیچ تعهد جدی‌ای به ایمنی هوش مصنوعی نداشت، حتی با وجود انتشار نسخه نهایی گزارش بین‌المللی ایمنی هوش مصنوعی ۲۰۲۵.

تصمیم آمریکا و بریتانیا برای رد بیانیه پایانی اجلاس، پرسش‌های جدی درباره آینده حکمرانی جهانی هوش مصنوعی ایجاد کرده است. سیاست‌های دولت ترامپ به شکاف در هماهنگی بین‌المللی در این حوزه دامن زده است، به‌ویژه اینکه هیئت نمایندگی آمریکا با هرگونه اشاره به خطرات وجودی هوش مصنوعی، تأثیرات زیست‌محیطی آن و نقش سازمان ملل مخالفت کرد.

 

 

تسلیم شدن، جزو گزینه ها نیست: یک استراتژی سه‌وجهی

مشخص نیست که این تغییر مسیر به معنای پایان دیپلماسی و حکمرانی جهانی در حوزه هوش مصنوعی است یا خیر، اما اقدام ایالات متحده و بریتانیا نشان‌دهنده بحرانی جدی در چندجانبه‌گرایی است. اکنون که عرصه بین‌المللی بیش از آنکه فضایی برای همکاری باشد، به میدان رقابت و تقابل تبدیل شده، اروپا باید بر سه راهبرد تمرکز کند: جاه‌طلبی، همکاری و اجرای قوانین.

 

۱. اروپا باید تغییر روایت جهانی از «ایمنی‌محوری» به «ایمنی و رشد» را به فرصت تبدیل کند. این تغییر با اهداف دوقلوی دیجیتالی و زیست‌محیطی اروپا همسو است و می‌تواند این قاره را در رقابت برای جذب استعدادها و سرمایه‌گذاری‌ها برجسته کند.

 

۲. تعامل مستمر در اجلاس‌های هوش مصنوعی همچنان بهترین راه برای تنظیم مقررات و ایمنی هوش مصنوعی در سطح بین‌المللی است. بسیاری از کشورها، از جمله برزیل، هند و چین، خطرات این فناوری را به رسمیت شناخته‌اند.

 

۳. اروپا باید بر قوانین و اجرای آن‌ها ایستادگی کند. عقب‌نشینی از مقرراتی مانند مقررات خدمات دیجیتال (DSA)، مقررات عمومی حفاظت از داده (GDPR) یا دستورالعمل مسئولیت هوش مصنوعی مسیر درستی نخواهد بود. اروپا باید در مدیریت تهدیدات جهانی نقش رهبری خود را حفظ کند.

 

منبع:
https://epc.eu/en/Publications/The-Paris-Summit-Au-Revoir-global-AI-Safety~61ea68

 

لینک های مرتبط:

وبسایت رسمی کنفرانس های بین المللی هوش مصنوعی

Artificial-Intelligence-Conferences-2025.pdf

۰
از ۵
۰ مشارکت کننده

جستجو در مقالات

سبد خرید

رمز عبورتان را فراموش کرده‌اید؟

ثبت کلمه عبور خود را فراموش کرده‌اید؟ لطفا شماره همراه یا آدرس ایمیل خودتان را وارد کنید. شما به زودی یک ایمیل یا اس ام اس برای ایجاد کلمه عبور جدید، دریافت خواهید کرد.

بازگشت به بخش ورود

کد دریافتی را وارد نمایید.

بازگشت به بخش ورود

تغییر کلمه عبور

تغییر کلمه عبور

حساب کاربری من

سفارشات

مشاهده سفارش