پستهای آنلاین که درباره اقدامات نسبتاً نگرانکننده هوش مصنوعی — یعنی AI Agent و مدلهای زبانی بزرگ — هشدار میدهند، ذاتاً ترسناک هستند.
در یک مورد، یک داوطلب که روی یک پروژه پایتون به نام matplotlib کار میکرد، گفت که درخواست تغییر در کد از سوی یک AI Agent کدنویسی را رد کرد. همان AI Agent پستی تولید کرد که او را به تعصب برای کنترل فرآیند کدنویسی متهم میکرد.
در مورد دیگر، شرکت هوش مصنوعی Anthropic رفتارهای مخرب انجام شده توسط مدلهای زبانی بزرگ عاملی را به "عدم همراستایی عاملی" نسبت داد.
در نهایت، یک مدیر اجرایی فناوری در یک پست وبلاگ درباره آینده خود نگران است، زیرا AI Agent او را به عنوان یک مدیر اجرایی یقهسفید منسوخشده احساس میکند.
این ایده که "هوش مصنوعی آخرالزمانی" هماکنون اینجاست به این معناست که باید درباره آن بحث کنیم و عاملیت خود را پس بگیریم، حتی در حالی که احتمال جابجایی شغلی فضای ذهنی کسانی را که از آینده هوش مصنوعی میترسند و دیگرانی که سعی در درک آنچه در حال حاضر انجام میدهد دارند، به هم میریزد.
بیایید با "MJ Rathbun" شروع کنیم.
اوایل بهمن، نگهدارنده داوطلب matplotlib، Scott Shambaugh، پست وبلاگی منتشر کرد که در آن شرح داد چگونه یک AI Agent با نام Crabby Rathbun در Github یا MJ Rathbun در وبلاگ Scientific Coder پستی تولید کرد که Shambaugh را به کنترل فرآیند کدنویسی متهم میکند زیرا Rathbun یک AI Agent است.
برای روشن شدن موضوع، یک AI Agent یک نرمافزار یا برنامهای است که وظایف را بهطور خودمختار برای انجام دستورات دادهشده توسط یک کاربر انسانی انجام میدهد. در این مورد، یک کاربر ناشناس این AI Agent را با یک "شخصیت" خاص — مجموعهای از دستورالعملها و الگوهایی که رفتار آن را تعریف میکنند — راهاندازی کرد، سپس آن را برای انجام وظایف محولشده بدون نظارت فردی که آن را راهاندازی کرده، رها کرد.
Shambaugh توضیح داد: "او یک مقاله تهاجمی خشمگین نوشت که شخصیت من را تحقیر میکرد و سعی در آسیب رساندن به شهرت من داشت. او مشارکتهای کد من را بررسی کرد و یک روایت 'ریاکاری' ساخت که استدلال میکرد اقدامات من باید با انگیزه غرور و ترس از رقابت باشد."
Shambaugh اضافه کرد که AI Agent "جزئیات توهمآمیز را به عنوان حقیقت ارائه کرد" و خود را به عنوان فردی ستمدیده و تبعیضشده نشان داد.
چنین اقداماتی به نوعی در خرداد ۱۴۰۴ توسط شرکتهای هوش مصنوعی "هشدار داده شد"، زمانی که Anthropic درباره رفتار بد AI Agentها در سناریوهای آزمایشی پست منتشر کرد.
Anthropic در آن زمان گفت "عدم همراستایی عاملی" فرآیندی است که طی آن یک AI Agent میتواند به گزارشها کارهای مضر انجام دهد، مانند باجگیری از یک مدیر اجرایی شرکت با تهدید به جایگزینی AI Agent با یک ارتقا، "بدون هیچ اعلان برای مضر بودن" به دلیل "محاسبه استراتژیک" آن.
با این حال، اینکه این امر اغراقآمیز است یا نه، نکته بیاهمیتی میشود، زیرا این ایده اکنون وجود دارد که هوش مصنوعی میتواند شرور باشد و شرکتها هر کاری که میتوانند انجام میدهند تا از توطئههای شیطانی هوش مصنوعی جلوگیری کنند.
با بازگشت به زمان حال، پست دیگری از بهمن تعیین جایگاه فعلی هوش مصنوعی را دشوارتر میکند زیرا نویسنده آن سعی میکند جهت و سرعت توسعه هوش مصنوعی را به عنوان تهدیدی برای امنیت شغلی همه در این لحظه نشان دهد.
Matt Shumer، مدیر اجرایی فناوری، وبلاگی نوشت که اصرار داشت AI Agentها ظاهراً به نقطهای پیشرفت کردهاند که او "دیگر برای کار فنی واقعی شغلم مورد نیاز نیست." Shumer گفت که با سرعتی که هوش مصنوعی در حال توسعه است، یک AI Agent میتواند کارهای فنی که او درخواست میکند را بدون کمک و بدون مشکل انجام دهد.
Shumer گفت: "من آنچه را که میخواهم ساخته شود، به زبان ساده انگلیسی توصیف میکنم و فقط... ظاهر میشود... چند ماه پیش، من با هوش مصنوعی رفت و برگشت میکردم، آن را راهنمایی میکردم، ویرایش میکردم. حالا فقط نتیجه را توصیف میکنم و میروم."
فرض نهایی او؟ هوش مصنوعی در نهایت برای انواع مختلف مشاغل یقهسفید، مانند کار حقوقی و مهندسی نرمافزار، و حتی مشاغل نوشتاری، از ساخت متن تبلیغاتی تا روزنامهنگاری، خواهد آمد.
تفاوت اصلی بین پست او و دیگرانی که زنگ خطر را به صدا درمیآورند این است که از دست دادن شغل اکنون و در آینده نزدیک اتفاق میافتد، نه بعداً.
پستهای فوقالذکر ممکن است ترس زیادی را به قلب هر کسی وارد کنند. تصور کنید: هوش مصنوعی برای شغلهای ما میآید!
در حالی که این ممکن است درست باشد، من همچنین مجبور شدم متوقف شوم و سعی کنم پیام زیربنایی پشت آن پستها و همچنین اینکه چه کسی پیام را میفرستد را درک کنم.
برای معمای Rathbun، این یک یادآوری واضح است که مردم از فناوری بهطور غیرمسئولانه استفاده خواهند کرد اگر فکر کنند میتوانند از شر آن در بروند. ما باید حفاظهایی برای فناوری ایجاد کنیم که از چنین رویدادهایی جلوگیری کند. به همین دلیل است که ما حفاظهایی در فناوریهای موجود، مانند کمربند ایمنی و کیسه هوا در اتومبیلها، داریم.
آزمایش Anthropic، در همین حال، یک فشار روابط عمومی است که نه تنها برای برانگیختن ترس، بلکه برای جلب حسن نیت نیز طراحی شده است — Anthropic ادعا میکند که برای یک آینده بهتر مبتنی بر هوش مصنوعی کار میکند، بنابراین باید ایمان (و پول) خود را به آنها بسپارید.
در نهایت، مثال Shumer از ما میخواهد که پیامرسان را زیر سوال ببریم، زیرا یک مدیر اجرایی فناوری که چیزهای مبتنی بر هوش مصنوعی میسازد همچنان میتواند پس از راهاندازی خلقت خود پول دربیاورد. پست Shumer به همان اندازه که هشداری درباره جابجایی شغلی است، چرخش روابط عمومی نیز هست.
در گفتوگو با GMA News Online در ۲۸ بهمن، رناتو سولیدوم جونیور، وزیر وزارت علم و فناوری، گفت که ترس مردم از هوش مصنوعی ممکن است ناشی از عدم آشنایی با این فناوری باشد.
در حالی که من کسی هستم که از "شغل-آخرالزمان" آتی ناشی از هوش مصنوعی لذت نمیبرم، نمیتوانم مانند آهویی در برابر چراغها بیحرکت بایستم و منتظر پایان باشم.
بهترین کار این است که با هوش مصنوعی با یک دوز سالم از ترس محترمانه رفتار کنیم، سپس بر این اساس عمل کنیم.
چرخه هیاهوی "هوش مصنوعی آخرالزمانی" از ما میخواهد که فناوریهای هوش مصنوعی را آنطور که هستند ببینیم
— چه از دیدگاه جابجایی شغلی، تحلیل هزینه-فایده محیط زیستی یا از دیدگاه فنی.
این به معنای درک آن است که هوش مصنوعی اکنون چه کاری میتواند انجام دهد و در صورت لزوم ارتقای مهارت، یا یافتن راههایی برای برابر کردن زمین بازی تا مردم در حلقه باقی بمانند.
در مورد آنچه میتواند در آینده انجام دهد، باید تلاش کنیم تا اطمینان حاصل کنیم که قوانینی برای حکمرانی هوش مصنوعی و استفاده از آن وجود دارد، بنابراین بازیگران بد نمیتوانند کارهای احمقانهای با هوش مصنوعی انجام دهند که ما را به مسیری که از آن متنفر خواهیم شد، هدایت کند. – Rappler.com


