هوش مصنوعی؛ سرنوشتسازترین پدیده تاریخ بشر

به گزارش بورس نیوز، فریال آرا سعید در مقالهای عنوان کرد: حاکمیت غیرمتمرکز میتواند به بهبود چابکی و نوآوری منجر شود، اما همزمان خطرات ناشی از قوانین ایمنی ناکافی فدرال نیز وجود دارد. در اجلاس اخیر پاریس با موضوع هوش مصنوعی (AI)، معاون رئیسجمهور آمریکا اعلام کرد که ایالات متحده مسیر خود را در زمینه هوش مصنوعی ادامه خواهد داد و از مقررات سختگیرانه اتحادیه اروپا (EU) که میتواند مانع نوآوری شود، پیروی نخواهد کرد. در این مرحله حساس از انقلاب فناوری، مشخص نیست که چگونه ایالات متحده میتواند نوآوری را به سرعت ارتقا دهد بدون اینکه ایمنی را به خطر بیندازد. هوش مصنوعی با سرعتی بیشتر از آنچه که تصور میشد در حال پیشرفت است. در سال 2019، این فناوری به سختی میتوانست تا ده بشمارد، اما اکنون در آزمونهای فیزیک، زیستشناسی و شیمی عملکردی بهتر از انسانها نشان میدهد. رقابت بین ایالات متحده و چین برای توسعه هوش ماشینی که بر هوش انسانی پیشی گیرد، این پیشرفت را تسریع کرده است. هرچه فناوری هوش مصنوعی پیشرفتهتر شود، اهمیت آن در زندگی مدرن و قدرت ژئوپلیتیکی بیشتر خواهد شد. با این حال، در کنار این پتانسیل عظیم، خطرات قابل توجهی نیز وجود دارد. نگرانیها در این زمینه جامعه فناوری را دچار تفرقه کرده و نظرسنجیها نشان میدهد که بیش از دو سوم آمریکاییها از توسعه مسئولانه این فناوری حمایت میکنند.
«دونالد ترامپ» با وجود فشارهایش برای کاهش مقررات و ترویج نوآوری، میتواند تعادل مناسبی را برقرار کند. کنگره از نوآوری با تدابیر حفاظتی حمایت میکند و گزارشی که کارگروه هوش مصنوعی مجلس ارائه میدهد، طرحهایی برای رهبران صنعت تهیه خواهد کرد. رهبری در زمینه هوش مصنوعی به معنای سروری در نوآوری و همزمان حفظ اعتماد عمومی است، همانطور که ترامپ در دوره اول ریاستجمهوری خود به آن پی برد. نظرسنجیهای متعدد نشان میدهد که اعتماد به ایمنی نیازمند تأمینکنندههایی است. در بحثهای مقامات دولتی درباره مقرراتزدایی، قوانین تنوع مورد توجه قرار میگیرند نه ایمنی مهندسی. ایمنی هوش مصنوعی شامل ایمنی مهندسی و همچنین اثرات اجتماعی آن میشود. اگر هدف استفاده از قوانین حقوق مدنی برای مقابله با تبعیض باشد، با پیشنهاد کنگره برای تنظیم هوش مصنوعی از طریق قوانین موجود هماهنگ است، پیشنهادی که ترامپ احتمالاً به آن پاسخ مثبت خواهد داد. برنامه اقدام رئیسجمهور در زمینه هوش مصنوعی که در تابستان امسال ارائه خواهد شد، موضع و سیاست ایالات متحده را در بحث جهانی در حال تحول درباره حکمرانی هوش مصنوعی روشن خواهد کرد. در حالی که مدل غیرمتمرکز و ریسکپذیر ایالات متحده در نوآوری برتر است و مدل متمرکز و ریسکگریز اتحادیه اروپا، این قاره را به عقب رانده است، چین با ترکیبی از ایمنی متمرکز و قوانین نوآوری غیرمتمرکز در حال رقابت در عرصه فناوری جهانی است. ایالات متحده اجماع جهانی در حال ظهور درباره ایمنی هوش مصنوعی را رد میکند، در حالی که اتحادیه اروپا و چین از آن حمایت میکنند. این سه مدل حکومتی احتمالاً در سطح جهانی همزیستی خواهند داشت و حفظ اعتماد عمومی میتواند مزیت رقابتی به همراه داشته باشد. بنابراین، عدم تعادل سرعت و ایمنی در چارچوب غیرمتمرکز هوش مصنوعی ایالات متحده میتواند به تضعیف رهبری این کشور در حوزه هوش مصنوعی بینجامد.
حاکمیت هوش مصنوعی ایالات متحده به این صورت است که دستورات اجرایی فاقد قانون جامع فدرال ویژه برای تنظیم هوش مصنوعی هستند. بهجای آن، مدل حکمرانی آن بر اساس دستورات اجرایی بنا شده که مهمترین آنها فرمان ایمنی هوش مصنوعی جو بایدن، رئیسجمهور سابق ایالات متحده در سال 2023 است. این دستور، جامعترین در نوع خود به شمار میرود و بر اساس ابتکارات دوره اول ریاستجمهوری ترامپ شکل گرفته است. هر دو دولت به دنبال استقرار ایمن و شفاف هوش مصنوعی بودهاند. هرچند که ترامپ به تازگی دستور ایمنی بایدن را لغو کرده، اما احتمالاً بخشی از آن را بازخواهد گرداند. این دستور الگوی اقداماتی در آینده در زمینه هوش مصنوعی خواهد بود، زیرا استقرار این فناوری در دولت فدرال را بدون بهرهمندی از قوانین خاص تنظیم میکند. سازمانهای فدرال این دستور را به دستورالعملهای خاص تبدیل کرده و از طریق الزامات ایمنی فدرال در قراردادهای دولتی بر بخش خصوصی تأثیر گذاشتهاند. این صنعت همچنین اقداماتی داوطلبانه برای بهبود ایمنی انجام داده است.
با اینکه ایمنی از اهمیت بالایی برخوردار است، فشار برای پیشی گرفتن از چین نیز افزایش یافته است. اعلام در ژانویه 2025 مبنی بر اینکه آزمایشگاههای هوش مصنوعی چینی مدلهای هوش مصنوعی استدلالی مانند دیپسیک را با هزینه کم توسعه دادهاند، صنعت و دولت را شگفتزده کرد. سرعت بالای نوآوری در چین، با وجود محدودیتهای ایالات متحده بر دسترسی پکن به تراشههای هوش مصنوعی، واشنگتن را وادار میکند تا نوآوری را در اولویت قرار دهد و موانع نظارتی احتمالی را کاهش دهد.
مدلهای مدیریت هوش مصنوعی در حالی که ایالات متحده با مقررات داخلی در این زمینه دست و پنجه نرم میکند، اتحادیه اروپا و چین در حال توسعه مدلهای حکومتی خود هستند که «دیدگاههای فرهنگی، سیاسی و اقتصادی متمایز» آنها را منعکس میکند. این سنتها محاسبه ریسک و فایده را شکل میدهند و همچنین تأثیرات ناشی از تمرکز یا عدم تمرکز در طراحی مقررات را مشخص میکنند. قانون هوش مصنوعی اتحادیه اروپا مدلی متمرکز و ریسکگریز است که بر اساس چارچوب ایمنی محصول سنتی طراحی شده است. تمامی تعهدات به عهده توسعهدهندگان سیستمهای هوش مصنوعی است و مدلهای زبان بزرگ تحت نظارت شدید قرار دارند. با این حال، قوانین اجرایی آن هنوز در حال تدوین است و نگرانیهای صنعت اروپا در مورد تأثیر منفی آن بر توسعه هوش مصنوعی، همچنان مورد توجه قرار نگرفته است. مدل چین ترکیبی است از دقت متمرکز اتحادیه اروپا و نوآوری غیرمتمرکز ایالات متحده: متمرکز بر ایمنی اما غیرمتمرکز بر نوآوری. اگرچه هیچ چارچوب جهانی برای مدیریت هوش مصنوعی وجود ندارد، اما یک اجماع بینالمللی در مورد ایمنی هوش مصنوعی در حال ظهور است که مورد حمایت اتحادیه اروپا و چین قرار دارد، در حالی که ایالات متحده آن را رد میکند. این واگرایی احتمال همزیستی سه مدل حکومتی را در سطح جهانی تقویت میکند. غولهای فناوری ایالات متحده احتمالاً قادر به تحمل بار نظارتی خواهند بود. در عوض، اگر بروکسل همچنان به هدف قرار دادن شرکتهای آمریکایی ادامه دهد، ترامپ میتواند تعرفههای تهدید شده خود بر اتحادیه اروپا را اعمال کند. سازگاری شرکتهای آمریکایی با رژیمهای نظارتی مختلف در بازارهای بزرگ فناوری جهان برای حفظ برتری ایالات متحده در توسعه هوش مصنوعی و تنظیم استانداردها، امری بسیار مهم است.
خطرات جهانی ناشی از عدم توافق در زمینه ایمنی هوش مصنوعی میتواند برای ایالات متحده هزینههایی به همراه داشته باشد. در حالی که ایالات متحده بهطور قابل توجهی در بین ده اکوسیستم موفق هوش مصنوعی جهان پیشتاز است، چین در رتبه دوم و اتحادیه اروپا با نمایندگی فرانسه و آلمان به ترتیب در ردههای ششم و هشتم قرار دارند. چین با وجود مقررات امنیتی متمرکز و سیاستهای ایالات متحده که پیشرفت آن را محدود میکند، همچنان در حال پیشرفت است. همچنین در دهه گذشته تغییرات چشمگیری در نحوه نگرش به فناوری بزرگ در داخل و خارج از آمریکا به وجود آمده است؛ تأثیرات منفی فناوری در جامعه احساس میشود و نگرانیها در مورد جابجایی شغل، حفظ حریم خصوصی دادهها و از دست دادن کنترل انسانها بر هوش مصنوعی افزایش یافته است. اگر ایالات متحده مدلهای هوش مصنوعی را به سرعت توسعه دهد، اما ایمنی را فدای سرعت کند، خطر حوادث ناگوار افزایش خواهد یافت که میتواند منجر به واکنش عمومی شدیدی علیه فناوریهای بزرگ شود، مشابه آنچه در سال 2018 شاهد بودیم. توسعه هوش مصنوعی فرآیند بسیار مشارکتی است و از اشتراکگذاری دانش جهانی بهره میبرد، که اگر ایالات متحده خارج از اجماع جهانی در مورد ایمنی باقی بماند، چالشهای جدی به وجود خواهد آمد. شرکتهای هوش مصنوعی به این ریسکها آگاهند و میدانند که پیشگیری از خطرات بالقوه میتواند مزیت رقابتی قابلتوجهی به همراه داشته باشد.
استراتژی احتمالی ترامپ: برای ایجاد تعادل بین نوآوری، ایمنی و رهبری جهانی، چارچوب هوش مصنوعی ترامپ احتمالاً بهگونهای طراحی خواهد شد که مشابه بایدن باشد. این میتواند شامل ابتکاراتی برای تقویت نوآوری، دستورات اجرایی درباره ایمنی و تشویق به قوانین ایمنی کنگره مطابق با مقررات حداقلی باشد، مانند قانون پیشرفت هوش مصنوعی و قابلیت اطمینان و قانون آینده نوآوری هوش مصنوعی که مؤسسه ایمنی هوش مصنوعی ایالات متحده و اقدامات ایمنی را ایجاد میکند. برخی بر این باورند که بدون وجود قوانین جامع هوش مصنوعی فدرال، مجموعه رو به رشد قوانین و مقررات ایالتی یک محیط نظارتی غیرقابل پیشبینی ایجاد کرده و نوآوری را به عقب میرانند، بهطوری که مدلهای حکومتی جایگزین مانند قانون هوش مصنوعی اتحادیه اروپا ممکن است در سطح جهانی تسلط یابند. با این وجود، همانطور که وتوی لایحه 1047 سنای کالیفرنیا نشان میدهد، ایالتها نیز نگران نوآوری خفه کننده ناشی از مقررات سختگیرانه هستند. بخش فناوری اروپا این نگرانی را در مورد قانون هوش مصنوعی منعکس کرده و استدلال میکند که این قانون اروپا را در شرایط رقابتی با ایالات متحده قرار میدهد.
هدف هوش مصنوعی باید خدمت به انسانها باشد. این فناوری در آستانه تبدیل شدن به یک فناوری استراتژیک مرکزی در اوایل قرن بیست و یکم است. چالش برای ایالات متحده روشن است: حفظ رهبری در توسعه هوش مصنوعی در عین حال اطمینان از ایمنی و اعتماد عمومی. دستیابی به این تعادل یک ضرورت عملی است که برای استقرار مسئولانه و گسترده هوش مصنوعی در ایالات متحده و اطمینان از اینکه این فناوری به نفع انسانها عمل میکند، ضروری است. حاکمیت غیرمتمرکز هوش مصنوعی علیرغم افزایش چابکی و نوآوری، خطرات ناشی از قوانین ایمنی ناکافی فدرال را به همراه دارد. واقعیت اینکه اتحادیه اروپا و چین قوانین ایمنی و اخلاقی سختگیرانهتری را اتخاذ کردهاند که با اجماع جهانی در مورد ایمنی هوش مصنوعی همخوانی دارد، و نیز اینکه کنگره نیز از نوآوری با تدابیر حفاظتی حمایت میکند، نشان میدهد که ایالات متحده باید رویکرد خود را تنظیم کند. این تنظیم نیازمند آن است که نه تنها اخلاق نوآوری خود را کنار بگذارد، بلکه پادمانهای معناداری را در حکمرانی هوش مصنوعی بگنجاند. این امر میتواند اطمینان حاصل کند که شرکتهای آمریکایی همچنان در عرصه نوآوری رقابتی باقی بمانند و همزمان اعتماد عمومی را نیز تأمین کنند. در حالی که دولتها با وعدههای عظیم فناوری هوش مصنوعی و خطرات آن روبهرو هستند، لازم است که به هشدار پروفسور استیون هاوکینگ توجه کنند که هوش مصنوعی میتواند بهترین یا بدترین اتفاقی باشد که برای بشریت رخ میدهد. تصمیماتی که امروز اتخاذ میشوند، آیندهای را که ایالات متحده در آغوش خواهد گرفت، تعیین خواهند کرد.
به نقل از خبرگزاری بازار
انتهای پیام/