الگوریتمهای هوش مصنوعی به زودی به نقطهای از خودسازی سریع میرسند که توانایی ما در کنترل آنها را تهدید میکنند و خطر بالقوه زیادی برای بشریت به همراه دارد.
یک نظرسنجی در سال 2023 از کارشناسان هوش مصنوعی نشان داد که 36 درصد از این نگرانند که توسعه هوش مصنوعی ممکن است منجر به “فاجعه در سطح هسته ای” شود. تقریباً 28000 نفر از جمله استیو وزنیاک، ایلان ماسک، مدیران اجرایی چندین شرکت هوش مصنوعی و بسیاری دیگر از فنآوران برجسته، نامه سرگشادهای را امضا کردهاند که توسط مؤسسه آینده زندگی نوشته شده است، و از آنها درخواست توقف شش ماهه یا تعلیق پیشرفتهای جدید کردهاند.
پیشنهاد مطالعه: معایب تولید محتوا با هوش مصنوعی
Table of contents [Show]
مسئله کلیدی، بهبود عمیق و سریع در مکالمه میان محصول جدید «chatbots» پیشرفته، یا آنچه که از نظر فنی «مدل های زبان بزرگ» (LLM) نامیده می شود، است.
این شتاب سریع نوید می دهد که به زودی به “هوش عمومی مصنوعی” (AGI) منجر می شود و زمانی که این اتفاق بیفتد، هوش مصنوعی قادر خواهد بود بدون دخالت انسانی خود را بهبود بخشد. این کار را به همان روشی انجام میدهد که، برای مثال، هوش مصنوعی AlphaZero گوگل یاد گرفت که چگونه شطرنج را بهتر از بهترین انسانها یا دیگر شطرنجبازان هوش مصنوعی فقط در 9 ساعت از زمانی که برای اولین بار روشن شد، بازی کند. با میلیون ها بار بازی کردن خودش به این موفقیت دست یافت.
در آزمایش GPT-4، عملکرد بهتری نسبت به 90 درصد افراد شرکت کننده در آزمون وکالت یکنواخت داشت، یک آزمون استاندارد که برای صدور گواهینامه وکلا برای کار در بسیاری از ایالت ها استفاده می شود. این رقم در نسخه قبلی GPT-3.5 که بر روی مجموعه داده های کوچکتر آموزش داده شده بود، تنها 10 درصد افزایش داشت. آنها پیشرفت های مشابهی را در ده ها تست استاندارد دیگر پیدا کردند.
اکثر این آزمون ها آزمون های استدلال هستند. این دلیل اصلی است که محققان به این نتیجه رسیدند که GPT-4 «به طور منطقی می تواند به عنوان نسخه اولیه (و هنوز ناقص) یک سیستم هوش عمومی مصنوعی (AGI) در نظر گرفته شود.
این سرعت تغییر به همین دلیل است که هینتون به نیویورک تایمز گفت:
ببینید که پنج سال پیش چگونه بود و اکنون چگونه است. تفاوت را در نظر بگیرید و آن را پیش بینی کنید. این ترسناک است.
هنگامی که هوش مصنوعی بتواند خود را بهبود بخشد، که ممکن است چند سال بیشتر نباشد، و در واقع می تواند اکنون در اینجا باشد، ما هیچ راهی نداریم که بدانیم هوش مصنوعی چه کاری انجام خواهد داد یا چگونه می توانیم آن را کنترل کنیم. این به این دلیل است که هوش مصنوعی فوقهوشمند (که طبق تعریف میتواند در طیف وسیعی از فعالیتها از انسانها پیشی بگیرد) میتواند با دستکاری انسانها برای انجام اراده خود، حلقههایی را در اطراف برنامهنویسان و هر انسان دیگری راهاندازی کند. همچنین این ظرفیت را خواهد داشت که در دنیای مجازی از طریق اتصالات الکترونیکی خود عمل کند و در دنیای فیزیکی از طریق بدن ربات ها عمل کند. این به عنوان «مشکل کنترل» یا «مشکل هم ترازی» شناخته میشود (برای یک نمای کلی، به کتاب Superintelligence فیلسوف نیک بوستروم مراجعه کنید) و برای دههها توسط فیلسوفان و دانشمندانی مانند بوستروم، ست باوم و الیزر یودکوفسکی مورد مطالعه و استدلال قرار گرفته است.
چرا انتظار داریم که بتوانیم سیستم های هوش مصنوعی فوق هوشمند را کنترل کنیم؟ (نه، ما نمیتوانیم به سادگی کلید خاموش را بزنیم، زیرا هوش مصنوعی فوقهوشمند به هر راه ممکن برای انجام این کار فکر کرده و اقداماتی را برای جلوگیری از خاموش شدن انجام خواهد داد.)
بیایید به این مشکل جور دیگر نگاه کنیم: یک هوش مصنوعی فوقهوشمند میتواند کاری را که یک تیم متشکل از 100 مهندس نرمافزار انسانی در یک سال یا بیشتر طول میکشد، در یک ثانیه انجام دهد. یا هر کاری را انتخاب کنید، مانند طراحی یک هواپیما یا سیستم تسلیحاتی پیشرفته جدید و هوش مصنوعی فوق هوشمند می تواند این کار را در حدود یک ثانیه انجام دهد.
هنگامی که سیستمهای هوش مصنوعی در رباتها ساخته میشوند، میتوانند در دنیای واقعی به جای دنیای مجازی (الکترونیکی) با همان درجه از هوش فوقالعاده عمل کنند و البته میتوانند خود را در یک ابرانسان تکرار کنند و بهبود بخشند.
هر گونه دفاع یا حفاظتی که ما سعی می کنیم برای این “خدایان” هوش مصنوعی ایجاد کنیم، در مسیر رسیدن به خدایی، به راحتی توسط هوش مصنوعی پیش بینی شده و پس از رسیدن به وضعیت فوق هوش خنثی می شود. این همان معنای فوق باهوش بودن است.
ما قادر نخواهیم بود آنها را کنترل کنیم زیرا هر چیزی که فکر کنیم، آنها قبلاً به آن فکر کرده اند، میلیون بار سریعتر از ما. هر گونه دفاعی که ساختهایم خنثی میشود.
پیشنهاد مطالعه: آینده برنامه نویسی با هوش مصنوعی
برخی استدلال میکنند که این LLMها فقط ماشینهای اتوماسیونی هستند که هوشیاری صفر دارند، به این معنا که اگر هوشیار نباشند، شانس کمتری برای رهایی از برنامهنویسیشان دارند. حتی اگر این مدلهای زبانی، در حال حاضر یا در آینده، اصلاً آگاه نباشند، این مهم نیست. برای ثبت، من موافقم که بعید است آنها در این مقطع آگاهی واقعی داشته باشند – اگرچه من همچنان در معرض حقایق جدید هستم.
صرف نظر از این، یک بمب هستهای میتواند میلیونها نفر را بدون هیچ گونه آگاهی بکشد. به همین ترتیب، هوش مصنوعی میتواند میلیونها نفر را با هوشیاری صفر به روشهای بیشماری از جمله استفاده بالقوه از بمبهای هستهای یا مستقیم (به احتمال بسیار کمتر) یا از طریق واسطههای دستکاری شده انسانی (به احتمال زیاد) بکشد.
بنابراین، بحثهای مربوط به هوشیاری و هوش مصنوعی در بحثهای مربوط به ایمنی هوش مصنوعی چندان مطرح نمیشود. در زمینه توسعه فناوریهای مختلف مانند طراحی سایت ارزان، هوش مصنوعی میتواند تأثیرات گستردهای بر نحوه ارائه خدمات و افزایش بهرهوری داشته باشد.
بله، مدلهای زبان مبتنی بر GPT-4 و بسیاری از مدلهای دیگر در حال حاضر به طور گسترده در حال پخش هستند. اما توقفی که برای آن درخواست شده است، توقف توسعه هر مدل جدید قدرتمندتر از 4.0 است – و در صورت لزوم میتوان آن را با زور اجرا کرد. آموزش این مدلهای قدرتمندتر به مزارع سرور و انرژی عظیم نیاز دارد. میتوان آنها را تعطیل کرد.
در اینجا، چند نکته در مورد خطرات احتمالی هوش مصنوعی آورده شده است:
هوش مصنوعی ممکن است با داشتن الگوریتمهایی که بهطور ناخودآگاه تبعیض اجتماعی ایجاد میکنند، به تعارض با اصول عدالت و برابری منجر شود. توسعه و استفاده از الگوریتمهای منصفانه و بدون تبعیض اجتماعی از اهمیت ویژهای برخوردار است.
تصمیمات هوش مصنوعی ممکن است به ناپایداری و تبعیض در برخی از موارد منتهی شود. نحوه آموزش و تنظیم مدلهای هوش مصنوعی به گونهای که تصمیمات آنها از هرگونه تبعیض خودداری کنند، امری ضروری است.
هوش مصنوعی ممکن است در مواقعی با ابهامات مواجه شود که منجر به تصمیمات ناپایدار یا نادرست شوند. بهبود شفافیت و قابلیت تفسیر تصمیمات هوش مصنوعی، میتواند این خطر را کاهش دهد.
هوش مصنوعی با خود تهدیدات امنیتی خاصی نیز همراه است:
این تهدیدات نیازمند راهکارهای قوی امنیتی و مدیریت خطرات هستند تا ماشینها و الگوریتمهای هوش مصنوعی با اطمینان و بهصورت ایمن در محیطهای مختلف عمل کنند.
پیشنهاد مطالعه: هوش مصنوعی چهره DeepSwap
هوش مصنوعی، تأثیرات قابل توجهی بر اقتصاد و بازار کار دارد:
استفاده از هوش مصنوعی میتواند بهبود قابل توجهی در بهرهوری صنایع و خدمات ایجاد کند. الگوریتمها و سیستمهای هوشمند به سازمانها کمک میکنند تا تصمیمگیریهای بهینه و دقیقتری داشته باشند، که این امر به طور مستقیم به افزایش عملکرد و تولیدی منجر میشود.
پیشرفت هوش مصنوعی تأثیرات زیادی در نوع شغلها و نیازمندیهای بازار کار ایجاد کرده است. برخی از شغلهای سنتی به دلیل اتوماسیون و هوش مصنوعی از بین میروند، در حالی که شغلهای جدید و متخصصانه به وجود میآیند.
هوش مصنوعی میتواند منجر به ایجاد شغلهای جدید و فرصتهای شغلی نوین شود. توسعه نرمافزارهای هوشمند، پشتیبانی تخصصی از سیستمهای هوشمند، و توسعه فناوریهای پیشرو مثالهایی از این فرصتها هستند که ممکن است در آینده گسترش یابند.
هر چند که هوش مصنوعی با پتانسیلها و امکانات زیادی همراه است، اما باید توجه ویژهای به مدیریت تأثیرات جانبی مانند تأثیرات اجتماعی و تغییرات در بازار کار داشته باشیم. افراد و سازمانها نیاز دارند که با تحولات روبهرو شوند و استفاده از هوش مصنوعی را به نحوی هوشمندانه و اخلاقی مدیریت کنند تا از فرصتها بهرهمند شوند و به چالشهای احتمالی پاسخ دهند.
استفاده گسترده از هوش مصنوعی با خود نگرانیهایی در زمینه حریم خصوصی به وجود آورده است:
تأمین حقوق حریم خصوصی افراد نیازمند قوانین و استانداردهای مشخص و دقیق در حوزه استفاده از هوش مصنوعی است.
استفاده از هوش مصنوعی به مسائل اخلاقی زیر منجر شده است:
این تأثیرات و مسائل اخلاقی نشاندهنده ضرورت توجه به ابعاد اخلاقی در توسعه و استفاده از هوش مصنوعی است.
پیشنهاد مطالعه: طراحی سایت با هوش مصنوعی
استفاده از هوش مصنوعی نیز ممکن است تأثیرات منفی بر محیط زیست داشته باشد:
برای مدیریت و کاهش خطرات نقض حقوق مالکیت فکری در حوزه هوش مصنوعی، ایجاد استانداردها و قوانین مناسب از اهمیت بسیاری برخوردار است. این استانداردها میتوانند نه تنها به تضمین احترام به حقوق مالکیت فکری کمک کنند بلکه به تسهیل همکاری و اشتراک دادهها در چارچوبی قانونی و اخلاقی هم بپردازند. همچنین، ترویج فرهنگ احترام به حقوق مالکیت فکری در جوامع فناورانه و تشویق به نحوه استفاده مسئولانه از هوش مصنوعی نیز از اهمیت ویژهای برخوردار است.
هوش مصنوعی میتواند تأثیرات قابلتوجهی بر تعاملات اجتماعی و فرهنگی داشته باشد:
برای مدیریت خطرات هوش مصنوعی و حفظ تعادل بین توسعه فناوری و محافظت از جوامع، میتوان از راهکارهای زیر استفاده کرد:
ترکیب این راهکارها با یکدیگر میتواند به مدیریت خطرات هوش مصنوعی و حفظ تعادل میان توسعه فناوری و محافظت از جوامع کمک کند.