میراث غم انگیز هیروشیما یادآور خطرات بالقوه فناوری های بدون محدودیت امروزی است.

وقتی در سایه استخوان بندی آن می ایستید، سخت است که تحت تأثیر سکوت و آرامش مطلق گنبد گنباکو قرار نگیرید.

این سالن که در ابتدا به عنوان یک سالن نمایشگاه محصولات صنعتی در اوایل قرن گذشته ساخته شد، یکی از تنها ساختمان‌های هیروشیما بود که تا حدی از اولین بمباران اتمی جهان جان سالم به در برد.

شورای شهر هیروشیما، در سال‌های پس از جنگ، بحث طولانی و سختی داشت که آیا باید ساختاری را که برای بسیاری از بازماندگان حمله، یادآور وحشت‌هایی بود که در طول و بعد از انفجاری که عصر هسته‌ای را آغاز کرد، متحمل شده بودند، تخریب کنند.

تصمیم برای حفظ آن، حفظ ویرانه های آن و افزودن یک پارک یادبود سرسبز و سرسبز برای در آغوش گرفتن این مکان، گنبد را به یک نماد قوی ضد جنگ تبدیل کرد، یک درخواست نیرومند برای خلع سلاح هسته ای.

فومئو کیشیدا، نخست وزیر ژاپن، از رهبران گروه 7 می خواست که جمعه گذشته همراه با سکوت در این پیام غرق شوند.

و انجام دادند.

نخست وزیر جاستین ترودو گفت: “بیشتر ما زمانی را به یاد نمی آوریم که جهان در معرض خطر جنگ هسته ای قرار داشته باشد.” جنگ سرد مدت ها پیش به پایان رسید و خطر جنگ هسته ای متأسفانه توسط بسیاری فراموش شده است.

با این حال، درس دیگری نیز وجود دارد، یک درس کمتر از آن، که باراک اوباما در اظهارات خود در سال 2016، زمانی که اولین رئیس جمهور مستقر ایالات متحده بود که از هیروشیما بازدید کرد، به آن اشاره کرد. او گفت که یادبودهای بسیاری در سرتاسر جهان وجود دارد که داستان‌های شجاعت و قهرمانی را روایت می‌کنند و یادبودهای دیگری مانند آشویتس که “پژواکی از تباهی وصف ناپذیر” را ارائه می‌دهند.

اوباما گفت که گنبد گنباکو و ابر قارچی بزرگی که در 6 اوت 1945 بر فراز آن برخاسته بود، چیزی کاملاً متفاوت از سایر بناهای تاریخی بود. این به “تضاد اصلی بشریت” صحبت می کند – که خلاقیت، تخیل و توانایی ما برای خم کردن طبیعت به اراده خود نیز می تواند منجر به نابودی خودمان شود.

دیدار چهره به چهره زلنسکی و ترودو در نشست جی 7 در ژاپن

رئیس جمهور اوکراین مهمان افتخاری در آخرین روز اجلاس سران G7 در ژاپن بود، جایی که او کمک نظامی بیشتری را علیه روسیه دریافت کرد. ایالات متحده متعهد شد 375 میلیون دلار دیگر کمک کند، اما کانادا علیرغم وعده‌هایی مبنی بر ادامه حمایت، سلاح بیشتری ارائه نکرد.

بلافاصله پس از بمباران، که توسط بمب افکن B-29 به نام انولا گی انجام شد، نیروی هوایی ارتش ایالات متحده در تعجب باقی ماند، همانطور که کمک خلبان کاپیتان رابرت لوئیس بعداً به ژورنال خود گفت: “خدای من، چه چیزی انجام داده ایم؟”

با تهدیدات هسته‌ای روسیه بر سر اوکراین، به هم ریختن معاهدات چند دهه‌ای کنترل تسلیحات و امتناع چین از پذیرش محدودیت‌های تسلیحات هسته‌ای، تمرکز ذهن بر روی مجموعه‌ای از سناریوهای کنونی آسان است.

ورود ولودیمیر زلنسکی، رئیس‌جمهور اوکراین به اجلاس سران گروه ۷ در روز شنبه، تنها بر این ترس بود که جهان می‌تواند بدون کنترل به سمت نوعی رویارویی هسته‌ای – چه بزرگ و چه کوچک- در حرکت باشد.

رشد هوش مصنوعی از حکمرانی پیشی گرفته است

چیزی که وقتی روزنامه نگاران، مقامات و برخی رهبران در اطراف مانیتورهای تلویزیون جمع شدند تا به تماشای فید استخر – و تکرارهای بی پایان – فرود هواپیمای زلنسکی در روز شنبه بپردازند، گام های تا حدودی خشک و آزمایشی دموکراسی های پیشرو جهان در جهت پرداختن به آنچه برخی توصیف کرده اند برداشته شد. به عنوان بحران وجودی بزرگتر: ظهور ماشین ها از طریق هوش مصنوعی (AI).

G7 خواستار اتخاذ استانداردهای فنی برای “قابل اعتماد” نگه داشتن هوش مصنوعی شد. هشدارها مبنی بر اینکه حاکمیت این فناوری با رشد آن همگام نبوده است، چه در داخل و چه در خارج از جامعه فناوری کر کننده شده است.

سه مرد و یک زن با موهای بلوند در یک راهرو قدم می زنند.
زلنسکی در روز پایانی نشست سران گروه هفت در هیروشیما در روز یکشنبه به رهبران جهان G7 می‌پیوندد. (استفان روسو/WPA Pool/Getty Images)

اورسولا فون در لاین، رئیس کمیسیون اروپا در اوایل اجلاس گفت: ما می‌خواهیم سیستم‌های هوش مصنوعی دقیق، قابل اعتماد، ایمن و بدون تبعیض باشند، صرف نظر از منشأشان.

کانون توجه رهبران به اصطلاح “هوش مصنوعی مولد” است که زیرمجموعه ای از فناوری است که توسط برنامه ChatGPT که توسط شرکت OpenAI توسعه یافته است، رایج شده است.

پیشرفت های سریع در این فناوری باعث شد 1000 کارآفرین فناوری مانند ایلان ماسک و کسانی که این فناوری را توسعه می دهند، نامه ای سرگشاده را در ماه مارس امضا کنند که در آن خواستار توقف شش ماهه توسعه سیستم های قدرتمندتر شده بود و خطرات احتمالی را برای جامعه ذکر کردند. آن نامه اکنون 27000 امضا دارد.

در ماه آوریل، قانونگذاران اتحادیه اروپا از رهبران جهان خواستند راه هایی برای کنترل فناوری های هوش مصنوعی بیابند.

اتحادیه اروپا به تصویب جامع ترین قانون جهان برای تنظیم هوش مصنوعی نزدیک است، چیزی که سایر اقتصادهای پیشرفته به دقت دنبال می کنند.

گروهی از مردم در یک اتاق بزرگ در مقابل نمایشگرها نشسته و می ایستند.
بازدیدکنندگان در طول هفتمین نمایشگاه سه روزه هوش مصنوعی، بزرگترین نمایشگاه تجاری ژاپن برای شرکت‌های فناوری هوش مصنوعی، در توکیو در تاریخ 10 می، به صفحه‌هایی نگاه می‌کنند که ابزار ارتباطی هوش مصنوعی نوع ناوبری شرکت ژاپنی Tomorrow Net ‘CAT.AI’ با عملکرد ChatGPT را نشان می‌دهد. (ریچارد ا. بروکس/ خبرگزاری فرانسه/ گتی ایماژ)

ایالات متحده تاکنون رویکردی منتظر و منتظر را در پیش گرفته است و جو بایدن، رئیس جمهور این کشور گفت که باید دید آیا هوش مصنوعی خطرناک است یا خیر.

صرف نظر از این، رهبران G7 در بیانیه خود گفتند که قوانین مربوط به فناوری های دیجیتال مانند هوش مصنوعی باید “همراستا با ارزش های دموکراتیک مشترک ما باشد.”

در حالی که گروه هفت ممکن است در تلاش باشد تا اعضای خود را در یک مسیر قرار دهد، سایر کشورهای پیشرفته که لزوماً دارای ارزش‌های دموکراتیک نیستند، مانند چین، برای توسعه همان فناوری پیشرفته عجله دارند.

و در حالی که در G7 فراخوانی برای استانداردهای بین‌المللی وجود داشت، به نظر می‌رسید که رهبران دستور ایجاد یک مجمع وزیران برای بحث در مورد مسائل مربوط به هوش مصنوعی مولد را از طریق پنجره باریک حق چاپ و اطلاعات نادرست، تا پایان سال 2019 بدون فوریت مشخص کرده بودند. امسال.

تعدادی از کارشناسان هشدار داده اند که پتانسیل هوش مصنوعی برای اختلالات اقتصادی و اجتماعی – از طریق جابجایی کارگران و حتی تعصبات تبعیض آمیز – به خوبی درک نشده است.

پدرخوانده هوش مصنوعی هشدار می دهد که برخی از چت ربات ها “بسیار ترسناک” هستند

رهبران همچنین از سازمان‌های بین‌المللی مانند سازمان همکاری و توسعه اقتصادی خواستند تا تحلیل‌هایی را در مورد تأثیر تحولات سیاستی در نظر بگیرند.

درست مانند جی رابرت اوپنهایمر، فیزیکدان نظری آمریکایی که از ساخت بمب اتمی پشیمان شد، مردی که به طور گسترده پدرخوانده هوش مصنوعی، جفری هینتون، اخیراً از گوگل استعفا داد و هشدار داد که برخی از چت ربات‌های هوش مصنوعی که اکنون ساخته شده‌اند «بسیار ترسناک» هستند.

مردی با کت و شلوار در مقابل پس زمینه شهر ایستاده است.  او با اشاره هر دو دستش را تا سطح چشم بالا می برد.
جفری هینتون، پیشگام هوش مصنوعی اخیراً از گوگل استعفا داد و هشدار داد که برخی از چت ربات‌های هوش مصنوعی که اکنون توسعه یافته‌اند «بسیار ترسناک هستند». (مارک بلینچ/رویترز)

تحقیقات پیشگام هینتون بر روی شبکه های عصبی و یادگیری عمیق بود.

در هوش مصنوعی، شبکه های عصبی سیستم هایی هستند که شبیه مغز انسان هستند. آنها هوش را قادر می سازند تا از تجربه یاد بگیرد، همانطور که مردم انجام می دهند. به آن یادگیری عمیق می گویند.

هینتون در 2 می به بی بی سی گفت: “در حال حاضر، تا آنجا که من می توانم بگویم، آنها از ما باهوش تر نیستند. اما فکر می کنم به زودی ممکن است این کار را انجام دهند.”

در سال 2016، در پای گنبد گنباکو، باراک اوباما در پیامی از “بیداری اخلاقی” صحبت کرد که امروز می تواند به عنوان هشداری گسترده تر تعبیر شود.

او گفت: «علم به ما اجازه می‌دهد تا در میان دریاها ارتباط برقرار کنیم و بر فراز ابرها پرواز کنیم، بیماری‌ها را درمان کنیم و کیهان را درک کنیم، اما همین اکتشافات را می‌توان به ماشین‌های کشتار کارآمدتر تبدیل کرد.»

“جنگ های عصر مدرن این حقیقت را می آموزد. هیروشیما این حقیقت را آموزش می دهد. پیشرفت فناوری بدون پیشرفتی معادل در نهادهای انسانی می تواند ما را به هلاکت برساند.”