بورس‌نیوز(بورس‌خبر)، قدیمی ترین پایگاه خبری بازار سرمایه ایران

      
چهارشنبه ۰۶ فروردين ۱۴۰۴ - ۱۰:۰۸

هوش مصنوعی؛ سرنوشت‌سازترین پدیده تاریخ بشر

هوش مصنوعی؛ سرنوشت‌سازترین پدیده تاریخ بشر
حاکمیت غیرمتمرکز هوش مصنوعی چابکی و نوآوری را ارتقا می دهد، اما خطر قوانین ایمنی ناکافی را نیز به همراه دارد.
کد خبر : ۲۹۲۵۸۲
نویسنده :
مینا علیزاده

به گزارش بورس نیوز، فریال آرا سعید در مقاله‌ای عنوان کرد: حاکمیت غیرمتمرکز می‌تواند به بهبود چابکی و نوآوری منجر شود، اما همزمان خطرات ناشی از قوانین ایمنی ناکافی فدرال نیز وجود دارد. در اجلاس اخیر پاریس با موضوع هوش مصنوعی (AI)، معاون رئیس‌جمهور آمریکا اعلام کرد که ایالات متحده مسیر خود را در زمینه هوش مصنوعی ادامه خواهد داد و از مقررات سخت‌گیرانه اتحادیه اروپا (EU) که می‌تواند مانع نوآوری شود، پیروی نخواهد کرد. در این مرحله حساس از انقلاب فناوری، مشخص نیست که چگونه ایالات متحده می‌تواند نوآوری را به سرعت ارتقا دهد بدون اینکه ایمنی را به خطر بیندازد. هوش مصنوعی با سرعتی بیشتر از آنچه که تصور می‌شد در حال پیشرفت است. در سال 2019، این فناوری به سختی می‌توانست تا ده بشمارد، اما اکنون در آزمون‌های فیزیک، زیست‌شناسی و شیمی عملکردی بهتر از انسان‌ها نشان می‌دهد. رقابت بین ایالات متحده و چین برای توسعه هوش ماشینی که بر هوش انسانی پیشی گیرد، این پیشرفت را تسریع کرده است. هرچه فناوری هوش مصنوعی پیشرفته‌تر شود، اهمیت آن در زندگی مدرن و قدرت ژئوپلیتیکی بیشتر خواهد شد. با این حال، در کنار این پتانسیل عظیم، خطرات قابل توجهی نیز وجود دارد. نگرانی‌ها در این زمینه جامعه فناوری را دچار تفرقه کرده و نظرسنجی‌ها نشان می‌دهد که بیش از دو سوم آمریکایی‌ها از توسعه مسئولانه این فناوری حمایت می‌کنند.

 

«دونالد ترامپ» با وجود فشارهایش برای کاهش مقررات و ترویج نوآوری، می‌تواند تعادل مناسبی را برقرار کند. کنگره از نوآوری با تدابیر حفاظتی حمایت می‌کند و گزارشی که کارگروه هوش مصنوعی مجلس ارائه می‌دهد، طرح‌هایی برای رهبران صنعت تهیه خواهد کرد. رهبری در زمینه هوش مصنوعی به معنای سروری در نوآوری و همزمان حفظ اعتماد عمومی است، همان‌طور که ترامپ در دوره اول ریاست‌جمهوری خود به آن پی برد. نظرسنجی‌های متعدد نشان می‌دهد که اعتماد به ایمنی نیازمند تأمین‌کننده‌هایی است. در بحث‌های مقامات دولتی درباره مقررات‌زدایی، قوانین تنوع مورد توجه قرار می‌گیرند نه ایمنی مهندسی. ایمنی هوش مصنوعی شامل ایمنی مهندسی و همچنین اثرات اجتماعی آن می‌شود. اگر هدف استفاده از قوانین حقوق مدنی برای مقابله با تبعیض باشد، با پیشنهاد کنگره برای تنظیم هوش مصنوعی از طریق قوانین موجود هماهنگ است، پیشنهادی که ترامپ احتمالاً به آن پاسخ مثبت خواهد داد. برنامه اقدام رئیس‌جمهور در زمینه هوش مصنوعی که در تابستان امسال ارائه خواهد شد، موضع و سیاست ایالات متحده را در بحث جهانی در حال تحول درباره حکمرانی هوش مصنوعی روشن خواهد کرد. در حالی که مدل غیرمتمرکز و ریسک‌پذیر ایالات متحده در نوآوری برتر است و مدل متمرکز و ریسک‌گریز اتحادیه اروپا، این قاره را به عقب رانده است، چین با ترکیبی از ایمنی متمرکز و قوانین نوآوری غیرمتمرکز در حال رقابت در عرصه فناوری جهانی است. ایالات متحده اجماع جهانی در حال ظهور درباره ایمنی هوش مصنوعی را رد می‌کند، در حالی که اتحادیه اروپا و چین از آن حمایت می‌کنند. این سه مدل حکومتی احتمالاً در سطح جهانی هم‌زیستی خواهند داشت و حفظ اعتماد عمومی می‌تواند مزیت رقابتی به همراه داشته باشد. بنابراین، عدم تعادل سرعت و ایمنی در چارچوب غیرمتمرکز هوش مصنوعی ایالات متحده می‌تواند به تضعیف رهبری این کشور در حوزه هوش مصنوعی بینجامد.

 

حاکمیت هوش مصنوعی ایالات متحده به این صورت است که دستورات اجرایی فاقد قانون جامع فدرال ویژه برای تنظیم هوش مصنوعی هستند. به‌جای آن، مدل حکمرانی آن بر اساس دستورات اجرایی بنا شده که مهم‌ترین آن‌ها فرمان ایمنی هوش مصنوعی جو بایدن، رئیس‌جمهور سابق ایالات متحده در سال 2023 است. این دستور، جامع‌ترین در نوع خود به شمار می‌رود و بر اساس ابتکارات دوره اول ریاست‌جمهوری ترامپ شکل گرفته است. هر دو دولت به دنبال استقرار ایمن و شفاف هوش مصنوعی بوده‌اند. هرچند که ترامپ به تازگی دستور ایمنی بایدن را لغو کرده، اما احتمالاً بخشی از آن را بازخواهد گرداند. این دستور الگوی اقداماتی در آینده در زمینه هوش مصنوعی خواهد بود، زیرا استقرار این فناوری در دولت فدرال را بدون بهره‌مندی از قوانین خاص تنظیم می‌کند. سازمان‌های فدرال این دستور را به دستورالعمل‌های خاص تبدیل کرده و از طریق الزامات ایمنی فدرال در قراردادهای دولتی بر بخش خصوصی تأثیر گذاشته‌اند. این صنعت همچنین اقداماتی داوطلبانه برای بهبود ایمنی انجام داده است.

 

با اینکه ایمنی از اهمیت بالایی برخوردار است، فشار برای پیشی گرفتن از چین نیز افزایش یافته است. اعلام در ژانویه 2025 مبنی بر اینکه آزمایشگاه‌های هوش مصنوعی چینی مدل‌های هوش مصنوعی استدلالی مانند دیپ‌سیک را با هزینه کم توسعه داده‌اند، صنعت و دولت را شگفت‌زده کرد. سرعت بالای نوآوری در چین، با وجود محدودیت‌های ایالات متحده بر دسترسی پکن به تراشه‌های هوش مصنوعی، واشنگتن را وادار می‌کند تا نوآوری را در اولویت قرار دهد و موانع نظارتی احتمالی را کاهش دهد.

 

مدل‌های مدیریت هوش مصنوعی در حالی که ایالات متحده با مقررات داخلی در این زمینه دست و پنجه نرم می‌کند، اتحادیه اروپا و چین در حال توسعه مدل‌های حکومتی خود هستند که «دیدگاه‌های فرهنگی، سیاسی و اقتصادی متمایز» آن‌ها را منعکس می‌کند. این سنت‌ها محاسبه ریسک و فایده را شکل می‌دهند و همچنین تأثیرات ناشی از تمرکز یا عدم تمرکز در طراحی مقررات را مشخص می‌کنند. قانون هوش مصنوعی اتحادیه اروپا مدلی متمرکز و ریسک‌گریز است که بر اساس چارچوب ایمنی محصول سنتی طراحی شده است. تمامی تعهدات به عهده توسعه‌دهندگان سیستم‌های هوش مصنوعی است و مدل‌های زبان بزرگ تحت نظارت شدید قرار دارند. با این حال، قوانین اجرایی آن هنوز در حال تدوین است و نگرانی‌های صنعت اروپا در مورد تأثیر منفی آن بر توسعه هوش مصنوعی، همچنان مورد توجه قرار نگرفته است. مدل چین ترکیبی است از دقت متمرکز اتحادیه اروپا و نوآوری غیرمتمرکز ایالات متحده: متمرکز بر ایمنی اما غیرمتمرکز بر نوآوری. اگرچه هیچ چارچوب جهانی برای مدیریت هوش مصنوعی وجود ندارد، اما یک اجماع بین‌المللی در مورد ایمنی هوش مصنوعی در حال ظهور است که مورد حمایت اتحادیه اروپا و چین قرار دارد، در حالی که ایالات متحده آن را رد می‌کند. این واگرایی احتمال همزیستی سه مدل حکومتی را در سطح جهانی تقویت می‌کند. غول‌های فناوری ایالات متحده احتمالاً قادر به تحمل بار نظارتی خواهند بود. در عوض، اگر بروکسل همچنان به هدف قرار دادن شرکت‌های آمریکایی ادامه دهد، ترامپ می‌تواند تعرفه‌های تهدید شده خود بر اتحادیه اروپا را اعمال کند. سازگاری شرکت‌های آمریکایی با رژیم‌های نظارتی مختلف در بازارهای بزرگ فناوری جهان برای حفظ برتری ایالات متحده در توسعه هوش مصنوعی و تنظیم استانداردها، امری بسیار مهم است.

 

خطرات جهانی ناشی از عدم توافق در زمینه ایمنی هوش مصنوعی می‌تواند برای ایالات متحده هزینه‌هایی به همراه داشته باشد. در حالی که ایالات متحده به‌طور قابل توجهی در بین ده اکوسیستم موفق هوش مصنوعی جهان پیشتاز است، چین در رتبه دوم و اتحادیه اروپا با نمایندگی فرانسه و آلمان به ترتیب در رده‌های ششم و هشتم قرار دارند. چین با وجود مقررات امنیتی متمرکز و سیاست‌های ایالات متحده که پیشرفت آن را محدود می‌کند، همچنان در حال پیشرفت است. همچنین در دهه گذشته تغییرات چشمگیری در نحوه نگرش به فناوری بزرگ در داخل و خارج از آمریکا به وجود آمده است؛ تأثیرات منفی فناوری در جامعه احساس می‌شود و نگرانی‌ها در مورد جابجایی شغل، حفظ حریم خصوصی داده‌ها و از دست دادن کنترل انسان‌ها بر هوش مصنوعی افزایش یافته است. اگر ایالات متحده مدل‌های هوش مصنوعی را به سرعت توسعه دهد، اما ایمنی را فدای سرعت کند، خطر حوادث ناگوار افزایش خواهد یافت که می‌تواند منجر به واکنش عمومی شدیدی علیه فناوری‌های بزرگ شود، مشابه آنچه در سال 2018 شاهد بودیم. توسعه هوش مصنوعی فرآیند بسیار مشارکتی است و از اشتراک‌گذاری دانش جهانی بهره می‌برد، که اگر ایالات متحده خارج از اجماع جهانی در مورد ایمنی باقی بماند، چالش‌های جدی به وجود خواهد آمد. شرکت‌های هوش مصنوعی به این ریسک‌ها آگاهند و می‌دانند که پیشگیری از خطرات بالقوه می‌تواند مزیت رقابتی قابل‌توجهی به همراه داشته باشد.

 

استراتژی احتمالی ترامپ: برای ایجاد تعادل بین نوآوری، ایمنی و رهبری جهانی، چارچوب هوش مصنوعی ترامپ احتمالاً به‌گونه‌ای طراحی خواهد شد که مشابه بایدن باشد. این می‌تواند شامل ابتکاراتی برای تقویت نوآوری، دستورات اجرایی درباره ایمنی و تشویق به قوانین ایمنی کنگره مطابق با مقررات حداقلی باشد، مانند قانون پیشرفت هوش مصنوعی و قابلیت اطمینان و قانون آینده نوآوری هوش مصنوعی که مؤسسه ایمنی هوش مصنوعی ایالات متحده و اقدامات ایمنی را ایجاد می‌کند. برخی بر این باورند که بدون وجود قوانین جامع هوش مصنوعی فدرال، مجموعه رو به رشد قوانین و مقررات ایالتی یک محیط نظارتی غیرقابل پیش‌بینی ایجاد کرده و نوآوری را به عقب می‌رانند، به‌طوری که مدل‌های حکومتی جایگزین مانند قانون هوش مصنوعی اتحادیه اروپا ممکن است در سطح جهانی تسلط یابند. با این وجود، همان‌طور که وتوی لایحه 1047 سنای کالیفرنیا نشان می‌دهد، ایالت‌ها نیز نگران نوآوری خفه کننده ناشی از مقررات سخت‌گیرانه هستند. بخش فناوری اروپا این نگرانی را در مورد قانون هوش مصنوعی منعکس کرده و استدلال می‌کند که این قانون اروپا را در شرایط رقابتی با ایالات متحده قرار می‌دهد.

 

هدف هوش مصنوعی باید خدمت به انسان‌ها باشد. این فناوری در آستانه تبدیل شدن به یک فناوری استراتژیک مرکزی در اوایل قرن بیست و یکم است. چالش برای ایالات متحده روشن است: حفظ رهبری در توسعه هوش مصنوعی در عین حال اطمینان از ایمنی و اعتماد عمومی. دستیابی به این تعادل یک ضرورت عملی است که برای استقرار مسئولانه و گسترده هوش مصنوعی در ایالات متحده و اطمینان از اینکه این فناوری به نفع انسان‌ها عمل می‌کند، ضروری است. حاکمیت غیرمتمرکز هوش مصنوعی علی‌رغم افزایش چابکی و نوآوری، خطرات ناشی از قوانین ایمنی ناکافی فدرال را به همراه دارد. واقعیت اینکه اتحادیه اروپا و چین قوانین ایمنی و اخلاقی سخت‌گیرانه‌تری را اتخاذ کرده‌اند که با اجماع جهانی در مورد ایمنی هوش مصنوعی همخوانی دارد، و نیز اینکه کنگره نیز از نوآوری با تدابیر حفاظتی حمایت می‌کند، نشان می‌دهد که ایالات متحده باید رویکرد خود را تنظیم کند. این تنظیم نیازمند آن است که نه تنها اخلاق نوآوری خود را کنار بگذارد، بلکه پادمان‌های معناداری را در حکمرانی هوش مصنوعی بگنجاند. این امر می‌تواند اطمینان حاصل کند که شرکت‌های آمریکایی همچنان در عرصه نوآوری رقابتی باقی بمانند و همزمان اعتماد عمومی را نیز تأمین کنند. در حالی که دولت‌ها با وعده‌های عظیم فناوری هوش مصنوعی و خطرات آن روبه‌رو هستند، لازم است که به هشدار پروفسور استیون هاوکینگ توجه کنند که هوش مصنوعی می‌تواند بهترین یا بدترین اتفاقی باشد که برای بشریت رخ می‌دهد. تصمیماتی که امروز اتخاذ می‌شوند، آینده‌ای را که ایالات متحده در آغوش خواهد گرفت، تعیین خواهند کرد.

به نقل از خبرگزاری بازار

 

انتهای پیام/

اشتراک گذاری :
ارسال نظر