مقدمه مقاله: در هفته ای که گذشت، پاریس میزبان سومین اجلاس جهانی هوش مصنوعی بود. رهبران سیاسی، مدیران ارشد فناوری و کارشناسان از سراسر جهان گرد هم آمدند تا درباره تأثیرات سیاسی، فرهنگی، اجتماعی و اقتصادی هوش مصنوعی گفتگو کنند. در پایان این رویداد، ۶۰ نهاد بیانیهای با عنوان «هوش مصنوعی فراگیر و پایدار برای مردم و سیاره» را امضا کردند. اما ایالات متحده و بریتانیا از امضای این بیانیه خودداری کردند، که نشاندهنده تغییرات جدی در روایتهای مربوط به ایمنی هوش مصنوعی و حکمرانی بینالمللی آن است.
اولین اجلاس ایمنی هوش مصنوعی در سال ۲۰۲۳ در بریتانیا برگزار شد و نتایج ملموسی در بر داشت، از جمله تأسیس مؤسسات ایمنی هوش مصنوعی (AISIs) برای پژوهش و ارزیابی مدلهای هوش مصنوعی. این اجلاس با هدف بررسی خطرات و راهکارهای کاهش آنها برگزار شد. اجلاس بعدی در سئول نیز تأکید مجددی بر تعهد به ایمنی هوش مصنوعی و گسترش بحث به موضوعاتی همچون نوآوری و شمولیت داشت. کشورهای مختلفی متعهد به تأسیس مؤسسات ایمنی هوش مصنوعی شدند و شبکهای بینالمللی برای هماهنگی بیشتر ایجاد کردند.
اجلاس پاریس با اهداف بلندپروازانهای برگزار شد و به موضوعاتی مانند تغییرات اقلیمی و مصرف انرژی نیز پرداخت. اهداف این اجلاس شامل ایجاد اعتماد به هوش مصنوعی و حکمرانی جهانی در این حوزه بود.
این هفته، پاریس میزبان سومین اجلاس جهانی هوش مصنوعی بود.
رهبران سیاسی، مدیران ارشد فناوری و کارشناسانی از سراسر جهان به پایتخت فرانسه آمدند تا درباره دستور کاری گسترده در زمینه تأثیرات سیاسی، فرهنگی، اجتماعی و اقتصادی هوش مصنوعی گفتگو کنند. در پایان این رویداد، ۶۰ نهاد بیانیهای با عنوان «هوش مصنوعی فراگیر و پایدار برای مردم و سیاره» را امضا کردند که هدف آن همسو کردن توسعه هوش مصنوعی با اهداف توسعه پایدار (SDGs) بود.
اما ایالات متحده و بریتانیا، دو کشور پیشرو در حوزه هوش مصنوعی، از امضای این بیانیه خودداری کردند.
این اقدام چندان غیرمنتظره نبود، زیرا اوایل همین هفته، جِی. دی. ونس، معاون رئیسجمهور آمریکا، مقررات سختگیرانه در حوزه هوش مصنوعی را مورد انتقاد قرار داده و بر تعهد ایالات متحده به رویکرد «عدم مداخله» تأکید کرده بود. سخنگوی نخستوزیر بریتانیا، کییر استارمر، نیز اظهار داشت که این ابتکار خاص با منافع کشورش همخوانی ندارد. این عدم پذیرشها نشاندهنده تغییرات جدی در روایتهای مربوط به ایمنی هوش مصنوعی و حکمرانی بینالمللی آن است.
از بلچلی تا سئول – امیدهای اولیه برای یک تلاش جهانی
اولین اجلاس ایمنی هوش مصنوعی در اواخر سال ۲۰۲۳ در پارک بلچلی، واقع در باکینگهامشر بریتانیا، برگزار شد. هدف این گردهمایی آغاز گفتوگویی چندسطحی درباره خطرات فناوریهای هوش مصنوعی، بهویژه مدلهای پیشرفته، و بررسی اقدامات هماهنگ بینالمللی برای کاهش این خطرات بود.
این اجلاس نتایج ملموسی در بر داشت، از جمله تصویب «بیانیه بلچلی درباره ایمنی هوش مصنوعی»، که در آن ۲۸ کشور (از جمله ایالات متحده و چین) متعهد شدند هوش مصنوعی را به شیوهای ایمن، انسانمحور، قابل اعتماد و مسئولانه توسعه دهند. همچنین، مؤسسات ایمنی هوش مصنوعی (AISIs) برای پژوهش و ارزیابی مدلهای هوش مصنوعی، با هدایت بریتانیا و آمریکا، تأسیس شدند. افزون بر این، گزارش «وضعیت علم» درباره قابلیتها و خطرات هوش مصنوعی پیشرفته نیز پیش از اجلاس بعدی اعلام شد.
برجستهترین دستاورد، ایجاد مؤسسات ایمنی هوش مصنوعی (AISIs) بود. این نهادها، اگرچه قدرت قانونگذاری ندارند، اما با دولتها و صنعت همکاری میکنند تا استراتژیهای نظارتی را شکل دهند، تحقیقات ایمنی را پیش ببرند و پایههای حکمرانی بینالمللی در حوزه هوش مصنوعی را بنا نهند.
پس از اجلاس بلچلی، در ماه می ۲۰۲۴، نشست سئول و «مجمع جهانی هوش مصنوعی» برگزار شد. این اجلاس کوچکتر با هدف تأیید مجدد تعهد به ایمنی هوش مصنوعی، ارائه تدابیر موجود و گسترش بحث به موضوعاتی همچون نوآوری و شمولیت شکل گرفت. در این نشست، یوشوا بنجیو، از پیشگامان هوش مصنوعی، نسخهای موقت از «گزارش علمی بینالمللی درباره ایمنی هوش مصنوعی پیشرفته» را ارائه کرد که به بررسی پتانسیل، خطرات و راهکارهای کاهش تهدیدهای هوش مصنوعی عمومی میپرداخت.
با وجود کاهش توجه عمومی، اجلاس سئول همچنان به حکمرانی جهانی در زمینه هوش مصنوعی کمک کرد. در این رویداد، ۱۰ کشور و اتحادیه اروپا متعهد شدند که مؤسسات ایمنی هوش مصنوعی تأسیس کرده و یک شبکه بینالمللی برای هماهنگی بیشتر ایجاد کنند. از آن زمان، ژاپن، کره جنوبی، سنگاپور، فرانسه و کانادا این مؤسسات را راهاندازی کردهاند، و اتحادیه اروپا نیز اعلام کرد که دفتر جدید هوش مصنوعیاش این نقش را بر عهده خواهد گرفت.
در حالی که چین از تعهد به چنین اقداماتی خودداری کرد، دو شرکت چینی، از جمله بزرگترین ارائهدهنده مدلهای زبانی بزرگ (LLM) این کشور، به سایر شرکتهای هوش مصنوعی پیوسته و تعهداتی را در زمینه شفافیت و مدیریت ریسک امضا کردند.
سپس ترامپ و پاریس آمدند: آیا ایمنی جهانی هوش مصنوعی به پایان رسیده است؟
امانوئل مکرون، رئیسجمهور فرانسه، اهدافی بلندپروازانه برای سومین اجلاس هوش مصنوعی در سر داشت. او دستور کار این نشست را از بحث صرف درباره ایمنی هوش مصنوعی فراتر برد و به موضوعاتی مانند تغییرات اقلیمی و مصرف انرژی نیز پرداخت. برنامه اجلاس حول پنج محور اصلی شکل گرفت: منافع عمومی در هوش مصنوعی، آینده کار، نوآوری و فرهنگ، اعتماد به هوش مصنوعی، و حکمرانی جهانی در این حوزه.
این اجلاس همچنین تلاشی برای بازتعریف موقعیت اروپا بهعنوان یک بازیگر کلیدی در توسعه و اجرای هوش مصنوعی و جذب سرمایهگذاریهای جدید بود. یک روز پیش از آغاز اجلاس، مکرون اعلام کرد که فرانسه ۱۰۹ میلیارد یورو سرمایهگذاری خصوصی در زیرساختهای هوش مصنوعی جذب کرده است. همچنین، در روز افتتاحیه، اتحادیه اروپا از ابتکار "قهرمانان هوش مصنوعی" رونمایی کرد که شامل ۵۸ میلیارد یورو سرمایه عمومی و تعهد ۷۰ شرکت اروپایی به سرمایهگذاری ۱۵۰ میلیارد یورویی در پژوهش و توسعه هوش مصنوعی بود.
با این حال، علیرغم این اعلامیههای پرطمطراق، اجلاس پاریس در برخی جنبهها ناکام ماند. بسیاری از کارشناسان و شرکتکنندگان معتقد بودند که رقابت میان آمریکا و چین برای تسلط بر حوزه هوش مصنوعی موجب سرعت گرفتن توسعه این فناوری شده و ایمنی آن را به حاشیه رانده است. گواه این امر آن بود که بیانیه پایانی اجلاس هیچ تعهد جدیای به ایمنی هوش مصنوعی نداشت، حتی با وجود انتشار نسخه نهایی گزارش بینالمللی ایمنی هوش مصنوعی ۲۰۲۵.
تصمیم آمریکا و بریتانیا برای رد بیانیه پایانی اجلاس، پرسشهای جدی درباره آینده حکمرانی جهانی هوش مصنوعی ایجاد کرده است. سیاستهای دولت ترامپ به شکاف در هماهنگی بینالمللی در این حوزه دامن زده است، بهویژه اینکه هیئت نمایندگی آمریکا با هرگونه اشاره به خطرات وجودی هوش مصنوعی، تأثیرات زیستمحیطی آن و نقش سازمان ملل مخالفت کرد.

تسلیم شدن، جزو گزینه ها نیست: یک استراتژی سهوجهی
مشخص نیست که این تغییر مسیر به معنای پایان دیپلماسی و حکمرانی جهانی در حوزه هوش مصنوعی است یا خیر، اما اقدام ایالات متحده و بریتانیا نشاندهنده بحرانی جدی در چندجانبهگرایی است. اکنون که عرصه بینالمللی بیش از آنکه فضایی برای همکاری باشد، به میدان رقابت و تقابل تبدیل شده، اروپا باید بر سه راهبرد تمرکز کند: جاهطلبی، همکاری و اجرای قوانین.
۱. اروپا باید تغییر روایت جهانی از «ایمنیمحوری» به «ایمنی و رشد» را به فرصت تبدیل کند. این تغییر با اهداف دوقلوی دیجیتالی و زیستمحیطی اروپا همسو است و میتواند این قاره را در رقابت برای جذب استعدادها و سرمایهگذاریها برجسته کند.
۲. تعامل مستمر در اجلاسهای هوش مصنوعی همچنان بهترین راه برای تنظیم مقررات و ایمنی هوش مصنوعی در سطح بینالمللی است. بسیاری از کشورها، از جمله برزیل، هند و چین، خطرات این فناوری را به رسمیت شناختهاند.
۳. اروپا باید بر قوانین و اجرای آنها ایستادگی کند. عقبنشینی از مقرراتی مانند مقررات خدمات دیجیتال (DSA)، مقررات عمومی حفاظت از داده (GDPR) یا دستورالعمل مسئولیت هوش مصنوعی مسیر درستی نخواهد بود. اروپا باید در مدیریت تهدیدات جهانی نقش رهبری خود را حفظ کند.
منبع:
https://epc.eu/en/Publications/The-Paris-Summit-Au-Revoir-global-AI-Safety~61ea68
لینک های مرتبط:
وبسایت رسمی کنفرانس های بین المللی هوش مصنوعی
Artificial-Intelligence-Conferences-2025.pdf