تومان نیوز:طرفداران هوش مصنوعی درباره پتانسیل آن برای حل مشکلات بزرگ با توسعه داروهای جدید، کمک به مقابله با تغییرات آب و هوایی یا از بین بردن پیچیدگیهای تولید انرژی از واکنشهای همجوشی هستهای بحث میکنند.
آیا باید همه مشاغل حتی آنهایی را هم که باعث رضایت خاطرمان میشوند روی عملکرد خودکار قرار دهیم؟ آیا باید ذهنهای غیرانسانی را که ممکن است در نهایت از نظر تعداد و هوش از ما پیشی بگیرند و جایگزین ما شوند پرورش دهیم؟ آیا باید ریسک از دست دادن کنترل تمدن خود را بپذیریم؟ این سؤالات ماه گذشته در نامهای سرگشاده از مؤسسه آینده زندگی، یک سازمان غیردولتی و مردمنهاد، پرسیده شد. این سند که خواستار یک توقف ششماهه در ایجاد هوشهای مصنوعی پیشرفته شد، توسط بزرگان فناوری از جمله ایلان ماسک امضا شده است. این بارزترین نمونه نگرانی از پیشرفت سریع هوش مصنوعی و خطرات بالقوه آن است.
مدلهای زبان بزرگ (Large Language Models) مانند چت جیپیتی که به وسیله حجم عظیم دادههای متنی آموزش دیدهاند و میتوانند متونی به زبان انسان تولید کنند، به پرسشها پاسخ دهند و سایر کارهای مربوط به زبان را با دقت بالا انجام دهند، سازندگان خود را با استعدادهای غیرمنتظرهشان غافلگیر کردهاند. چنین تواناییهایی شامل همه چیز از حل پازلهای منطقی و نوشتن کد رایانهای گرفته تا شناسایی فیلمها از خلاصه داستانهای نوشتهشده است.
این مدلها میتوانند رابطه انسانها با رایانه، دانش و حتی با خودشان را تغییر دهند.
طرفداران هوش مصنوعی درباره پتانسیل آن برای حل مشکلات بزرگ با توسعه داروهای جدید، کمک به مقابله با تغییرات آب و هوایی یا از بین بردن پیچیدگیهای تولید انرژی از واکنشهای همجوشی هستهای بحث میکنند.
برای دیگران، قابلیتهای هوش مصنوعی، که به نظرشان در حال حاضر نیز از درک سازندگانشان پیشی گرفته است، بیشتر با خطرات و سناریوی فاجعه علمی- تخیلی دستگاهی همراه است که از مخترع خود پیشی میگیرد و اغلب دارای عواقب هولناک است.
این مخلوط جوشان از هیجان و ترس، سنجش و سبکسنگین کردن ریسکها و فرصتها را دشوار میکند. اما میتوان از سایر صنایع و از تغییرات فناوری گذشته درس گرفت. پس چه چیزی تغییر کرده که هوش مصنوعی را بسیار توانمندتر کرده است؟ چقدر باید ترسید؟ و دولتها چه باید بکنند؟
در بخش علوم خاص، عملکرد مدلهای زبان بزرگ و مسیر آینده آنها را بررسی میکنیم. موج اول سیستمهای هوش مصنوعی مدرن، که یک دهه پیش پدیدار شد، بر روی دادههای آموزشی با برچسبگذاری دقیق تکیه داشت. هنگامی که در معرض تعداد کافی نمونه برچسبگذاریشده قرار میگرفت، میتوانست کارهایی مانند تشخیص تصاویر یا رونویسی گفتار را بیاموزد.
سیستمهای امروزی نیازی به برچسبگذاری اولیه ندارند و در نتیجه میتوانند با استفاده از مجموعه دادههای بسیار بزرگتری که از منابع آنلاین گرفته شدهاند، آموزش ببینند.
زمانی که چت جیپیتی در نوامبر منتشر شد، این قابلیتها برای عموم مردم آشکار شد. یک میلیون نفر در عرض یک هفته و 100 میلیون در عرض دو ماه از آن استفاده کردند. به زودی از آن برای انجام تکالیف مدرسه و سخنرانیهای عروسی استفاده شد.
محبوبیت چت جیپیتی و اقدام مایکروسافت برای گنجاندن آن در موتور جستوجوی Bing، شرکتهای رقیب را نیز جهت انتشار چتباتها برانگیخت.
برخی از این موارد نتایج عجیبی به همراه داشت. بینگ چت (Bing Chat) به یک روزنامهنگار پیشنهاد کرد که همسرش را ترک کند. چت جیپیتی توسط یک استاد حقوق به افترا متهم شده است.
مدلهای زبان بزرگ پاسخهایی را ارائه میکنند که دارای حقیقت هستند، اما اغلب حاوی اشتباهات واقعی یا جعل آشکارند. با این حال، مایکروسافت، گوگل و سایر شرکتهای فناوری شروع به استفاده از آنها در محصولات خود کردهاند تا به کاربران در ایجاد اسناد و انجام کارهای دیگر کمک کنند.
شتاب اخیر در قدرت و دید سیستمهای هوش مصنوعی و افزایش آگاهی از تواناییها و نقصهای آنها، این نگرانی را ایجاد کرده است که این فناوری اکنون به سرعت در حال پیشرفت است و نمیتوان آن را به طور ایمن کنترل کرد. از این رو فراخوان توقف و نگرانی فزاینده مبنی بر این است که هوش مصنوعی نهتنها میتواند مشاغل و اعتبار انسانها، بلکه موجودیت خود بشریت را نیز تهدید کند.
انقراض؟ شورش؟
ترس از اینکه ماشینها مشاغل را بدزدند از قرنها پیش وجود دارد. اما تاکنون فناوری جدید مشاغل جدیدی را برای جایگزینی آنهایی که ویران کرده، ایجاد کرده است. ماشینها میتوانند برخی از کارها را انجام دهند و تقاضا برای افرادی که قادر به انجام کارهایی هستند که ماشینها انجام نمیدهند، افزایش مییابد.
آیا ایندفعه متفاوت است؟
فناوری قبلی جایگزین کارهایی که به مهارت و تخصص نیاز نداشتند، شده بود، اما مدلهای زبان بزرگ میتواند کارهای اداری و تخصصی مانند خلاصه کردن اسناد و نوشتن کد را انجام دهد.
میزان خطر تهدید شدن موجودیت توسط هوش مصنوعی به شدت مورد بحث قرار گرفته است. در یک نظرسنجی که در سال 2022 از محققان هوش مصنوعی انجام شد، 48 درصد بیان کردند که حداقل 10 درصد احتمال دارد تاثیر هوش مصنوعی بسیار بد حتی منجر به انقراض انسان شود. 25 درصد گفتند که خطر صفر درصد است و محققان میانهرو خطر را 5 درصد اعلام کردند.
کابوس این است که یک هوش مصنوعی پیشرفته با ساختن سم یا ویروس یا ترغیب انسان به ارتکاب اقدامات تروریستی باعث آسیب در مقیاس وسیع شود. محققان نگراناند که هوشهای مصنوعی آینده ممکن است اهدافی داشته باشند که با اهداف خالقان انسانی آنها همسو نباشد.
چنین سناریوهایی را نباید نادیده گرفت اما همه اینها شامل مقدار زیادی حدس و گمان و جهشی از فناوری امروزی است. بسیاری تصور میکنند که هوش مصنوعی در آینده دسترسی نامحدود به انرژی، پول و قدرت محاسباتی خواهد داشت، که امروزه محدودیتهای واقعی هستند و هوشهای مصنوعی نیز میتوانند در آینده از آنها محروم شوند.
علاوه بر این، کارشناسان تمایل دارند در مورد خطرات حوزه فعالیت خود در مقایسه با سایر پیشبینیها، اغراق کنند. اعمال مقررات سنگین یا در واقع یک توقف، واکنشی بیش از حد به نظر میرسد و مکث نیز غیرقابل اجرا خواهد بود. مقررات لازم است، اما به دلایلی پیشپاافتادهتر از نجات بشریت. سیستمهای هوش مصنوعی موجب نگرانیهایی در مورد حریم خصوصی و حقوق مالکیت معنوی میشوند. با پیشرفت فناوری ممکن است مشکلات دیگری نیز آشکار شوند. نکته کلیدی متعادل کردن وعدههای هوش مصنوعی با تخمین ریسکها و آماده بودن برای منطبق شدن با آن است.
تاکنون دولتها سه رویکرد متفاوت را در پیش گرفتهاند. در یک طرف طیف، بریتانیا قرار دارد که رویکرد بدون قوانین یا نهادهای نظارتی جدید اما اعمال مقررات موجود برای سیستمهای هوش مصنوعی را در پیش گرفته است. هدف آن نیز افزایش سرمایهگذاری و تبدیل بریتانیا به یک ابرقدرت هوش مصنوعی است.
آمریکا نیز رویکرد مشابهی را در پیش گرفته است، اگرچه دولت بایدن اکنون به دنبال دیدگاههای عمومی در مورد این است که یک کتابچه قوانین احتمالاً چگونه خواهد بود. اتحادیه اروپا موضع سختتری اتخاذ میکند. قانونِ مطرحشده استفادههای مختلف از هوش مصنوعی را بر اساس درجه خطر دستهبندی میکند، زیرا میزان خطر از مثلاً توصیه موسیقی به خودروهای خودران افزایش مییابد. این قانون به نظارت و افشاگری فزایندهای نیاز دارد. برخی از کاربردهای هوش مصنوعی مانند تبلیغات از طریق ضمیر ناخودآگاه و بیومتریک از راه دور بهطور کلی ممنوع هستند. شرکتهایی که قوانین را زیر پا بگذارند جریمه خواهند شد، گرچه از نظر برخی منتقدان این مقررات بسیار محدودکننده هستند.
اما برخی دیگر میگویند رویکرد سختگیرانهتری لازم است. دولتها باید مانند داروها از یک تنظیمکننده اختصاصی، آزمایشهای دقیق و تأیید اولیه قبل از انتشار عمومی استفاده کنند. چین برخی از این کارها را انجام میدهد و شرکتها را ملزم میکند تا محصولات هوش مصنوعی را ثبت کنند و قبل از عرضه، بازبینی امنیتی انجام دهند. اما ایمنی ممکن است انگیزه کمتری نسبت به سیاست ایجاد کند: یک شرط کلیدی این است که خروجی هوشهای مصنوعی ارزش اصلی سوسیالیسم را منعکس کند.
چه باید کرد؟
اگر هوش مصنوعی به اندازه خودرو، هواپیما و دارو یک فناوری مهم باشد، که البته دلایل خوبی هم برای این باور وجود دارد، پس مانند آنها به قوانین جدید نیاز دارد. بر این اساس، مدل اتحادیه اروپا نزدیکترین است. اگرچه سیستم طبقهبندی آن بیش از حد پیچیده است و رویکرد مبتنی بر اصول انعطافپذیرتر خواهد بود.
شفافسازی قانعکننده در مورد نحوه آموزشپذیری سیستمها، عملکرد و نحوه نظارت آنها و نیاز به بازرسی، با قوانین مشابه در سایر صنایع قابل مقایسه خواهد بود.
میتوان در صورت نیاز مقررات سختگیرانهتری را در طول زمان ایجاد کرد. همچنین ممکن است معاهدات بیندولتی مشابه پیمانهایی را که بر تسلیحات هستهای نظارت میکنند، در صورت وجود شواهد قابلقبول مبنی بر خطر برای بشریت، ایجاد کرد. برای نظارت بر این خطر، دولتها میتوانند بدنهای را با الگوبرداری از cern، سازمان اروپایی پژوهشهای هستهای، تشکیل دهند که همچنین میتواند ایمنی و اخلاقیات را مطالعه کند؛ حوزههایی که شرکتها به اندازه جامعه، انگیزه برای سرمایهگذاری ندارند.
این فناوری قدرتمند خطرات جدیدی را ایجاد میکند، اما فرصتهای خارقالعادهای را نیز فراهم میسازد. متعادل کردن این دو به معنای راه رفتن با دقت است. یک رویکرد سنجیده امروز میتواند پایههایی را فراهم کند که قوانین بیشتری را در آینده اضافه کرد. اما زمان شروع ساخت آن پایهها اکنون است.
منبع:اکونومیست