نوشته شده توسط: Ada، Deep Tide TechFlow
پانگ رومینگ قبل از اینکه حتی فرصتی برای استقرار در ایستگاه کاری خود در Meta داشته باشد، آنجا را ترک کرد.

در ژوئیه 2025، زاکربرگ این مهندس چینی مورد توجه در زمینه زیرساخت هوش مصنوعی را از Apple با بسته جبران خسارت چند ساله بیش از 200 میلیون دلار جذب کرد. پانگ رومینگ به آزمایشگاه ابر هوش Meta منصوب شد تا مسئولیت ساخت زیرساخت برای مدلهای هوش مصنوعی نسل بعدی را بر عهده بگیرد.
هفت ماه بعد، OpenAI او را جذب کرد.
طبق گزارش The Information، OpenAI یک کمپین چند ماهه استخدام برای پانگ رومینگ راهاندازی کرد. اگرچه پانگ به همکاران گفت که «از کار کردن در Meta بسیار خوشحال است»، اما در نهایت تصمیم به ترک گرفت. Bloomberg گزارش داد که بسته جبران خسارت او در Meta به نقاط عطف مرتبط بود و ترک زودهنگام به معنای کنار گذاشتن بیشتر اختیارات سهام تثبیت نشدهاش بود.
200 میلیون دلار نمیتواند هفت ماه وفاداری بخرد.
این یک داستان ساده جابجایی شغلی نیست.
پانگ رومینگ اولین نفری نبود که رفت.
هفته گذشته، Mat Velloso، رهبر محصول پلتفرم توسعهدهنده در آزمایشگاههای ابر هوش Meta، نیز خروج خود را اعلام کرد. او در ژوئیه گذشته از Google DeepMind به Meta پیوست و کمتر از هشت ماه ماند. با برگشت به عقبتر، در نوامبر 2025، یان لکان، برنده جایزه تورینگ و دانشمند ارشد هوش مصنوعی که 12 سال در Meta بود، خروج خود را برای شروع کسبوکار خود اعلام کرد و روی «مدل جهانی» که مدتها از آن دفاع میکرد کار میکند. راس سالاخوتدینوف، شاگرد کلیدی جفری هینتون و معاون تحقیقات هوش مصنوعی مولد در Meta، اخیراً خروج خود را اعلام کرد.
برای درک خروج استعدادها از Meta AI، ابتدا باید بفهمیم که Llama 4 چقدر آسیبزا بود.
در آوریل 2025، Meta انتشار پرسروصدای مدلهای Scout و Maverick در سری Llama 4 را انجام داد. مشخصات رسمی چشمگیر بود و ادعا میکرد که آنها به طور کامل از GPT-4.5 و Claude Sonnet 3.7 در تستهای معیار اصلی مانند MATH-500 و GPQA Diamond پیشی گرفتهاند.
با این حال، این مدل پرچمدار که تجسم جاهطلبیهای Meta بود، به سرعت ماهیت واقعی خود را در تستهای کور مستقل انجام شده توسط شخص ثالث در انجمن منبع باز نشان داد، با قابلیتهای عمومیسازی و استنتاج واقعی که بسیار کمتر از عملکرد تبلیغ شده بود. در مواجهه با انتقادات شدید از سوی جامعه، دانشمند ارشد هوش مصنوعی یان لکان در نهایت اعتراف کرد که تیم «نسخههای مختلف مدل را برای اجرای مجموعههای تست مختلف در طول مرحله تست استفاده کرد تا امتیاز نهایی را بهینه کند.»
در جوامع دقیق آکادمیک و مهندسی هوش مصنوعی، این یک خط قرمز غیرقابل بخشش را عبور کرد. به عبارت دیگر، تیم Llama 4 را به یک «شرکتکننده در آزمون شهر کوچک» آموزش داد که فقط میتواند سوالات آزمون گذشته را حل کند، نه یک «دانشآموز برتر» واقعاً پیشرفته با هوش پیشرفته. این مانند نشان دادن یک برگه آزمون ریاضی و یک برگه آزمون برنامهنویسی به شما است—هر تست فردی قوی به نظر میرسد، اما در واقع همان مدل نیستند.
در محافل آکادمیک هوش مصنوعی، این را «انتخاب گیلاس» مینامند، در حالی که در آموزش امتحانمحور، آن را «آزمون دادن از طرف دیگران» مینامند.
برای Meta که همیشه خود را به عنوان «فانوس منبع باز» معرفی کرده بود، این آشفتگی مستقیماً ارزشمندترین دارایی آن یعنی اعتماد را در اکوسیستم توسعهدهنده نابود کرد. هزینه فوری آن این بود که زاکربرگ «کاملاً ایمان خود» را به اصول مهندسی تیم اصلی GenAI از دست داد و بنابراین زمینه را برای انتصاب بعدی مدیران عالیرتبه و کنار گذاشتن بخشهای زیرساختی اصلی فراهم کرد.
او 14.3 میلیارد دلار تا 15 میلیارد دلار خرج کرد تا 49 درصد سهام شرکت برچسبگذاری داده Scale AI را خریداری کند و الکساندر وانگ 28 ساله، مدیرعامل Scale AI را به عنوان مدیر ارشد هوش مصنوعی Meta آورد و آزمایشگاه ابر هوش Meta (MSL) را تأسیس کرد. یان لکان برنده جایزه تورینگ ملزم شد در ساختار جدید به این 28 ساله گزارش دهد. در اکتبر، Meta حدود 600 شغل را در MSL حذف کرد، از جمله اعضای بخش تحقیقات FAIR که لکان آن را تأسیس کرده بود.
مدل پرچمدار Llama 4 Behemoth که اصلاً برای انتشار در تابستان 2025 برنامهریزی شده بود، بارها به تعویق افتاد، از تابستان تا پاییز، و در نهایت به طور نامحدود به حالت تعلیق درآمد.
Meta تمرکز خود را به توسعه یک مدل متنی نسل بعدی با نام رمز «Avocado» و یک مدل تصویر/ویدیو با نام رمز «Mango» معطوف کرد. گزارش شده که Avocado برای رقابت با GPT-5 و Gemini 3 Ultra طراحی شده است. در ابتدا برای انتشار در پایان 2025 برنامهریزی شده بود، اما به دلیل تست عملکرد و بهینهسازی آموزش نامطلوب به سهماهه اول 2026 به تعویق افتاد. Meta در حال بررسی انتشار آن به صورت منبع بسته است و سنت منبع باز سری Llama را کنار میگذارد.
Meta دو اشتباه کشنده با مدلهای هوش مصنوعی خود انجام داد. اول، دادههای معیار را جعل کرد که مستقیماً اعتماد جامعه توسعهدهنده را نابود کرد. دوم، یک بخش تحقیقات اساسی مانند Fair را که نیاز به یک دهه کار اختصاصی دارد، به یک سازمان محصول متمرکز بر KPI فصلی فشرد. این دو اقدام ترکیب شده ریشه اصلی خروج فعلی استعداد آن است.
استعدادها در حال ترک هستند و مشکلاتی با تراشهها وجود دارد.
طبق گزارش The Information، Meta پروژه پیشرفتهترین تراشه آموزش هوش مصنوعی خود که در حال توسعه داخلی بود را هفته گذشته لغو کرد.
پروژه تراشه خودساخته Meta به نام MTIA (Meta Training and Inference Accelerator) نامیده میشود. نقشه راه اولیه شرکت جاهطلبانه است: MTIA v4 با نام رمز «Santa Barbara»، v5 با نام رمز «Olympus» و v6 با نام رمز «Universal Core» برای تحویل بین 2026 و 2028 برنامهریزی شدهاند. در میان آنها، Olympus طراحی شده تا اولین تراشه Meta بر اساس معماری chiplet 2nm باشد که هدف آن پوشش همزمان آموزش مدل سطح بالا و استنتاج بلادرنگ و در نهایت جایگزینی نقش NVIDIA در خوشه آموزشی Meta است.
اکنون، این تراشه آموزشی پیشرفته از بین رفته است.
Meta بدون پیشرفت نبوده است؛ MTIA در استنتاج موفقیتهایی به دست آورده است. تراشه استنتاج MTIA v3 با نام رمز «Iris» در مراکز داده Meta در مقیاس بزرگ مستقر شده است، عمدتاً برای سیستمهای توصیه Facebook Reels و Instagram، که گزارش شده هزینه کل مالکیت را 40 تا 44 درصد کاهش میدهد. با این حال، استنتاج و آموزش دو چیز متفاوت هستند. استنتاج مدل را اجرا میکند، در حالی که آموزش آن را تمرین میکند. Meta میتواند تراشههای استنتاج خود را بسازد، اما نمیتواند تراشه آموزشی ایجاد کند که بتواند مستقیماً با Nvidia رقابت کند.
این اولین بار در تاریخ نیست. در 2022، Meta تلاش کرد تا تراشه استنتاج خود را توسعه دهد، اما پس از شکست در استقرار در مقیاس کوچک پروژه را رها کرد و در عوض سفارش بزرگی با Nvidia قرار داد.
شکست در توسعه تراشههای خود مستقیماً برونسپاری سریع Meta را تسریع کرد.
در ژانویه 2026، Meta بودجه هزینه سرمایهای خود برای سال را بین 115 میلیارد دلار و 135 میلیارد دلار اعلام کرد، تقریباً دو برابر 72.2 میلیارد دلار سال گذشته. بخش عمده این پول برای تراشهها خرج خواهد شد.
در 10 روز، سه سفارش بزرگ با موفقیت ثبت شد:
در 17 فوریه، Meta یک قرارداد همکاری استراتژیک چند ساله و چند نسلی با NVIDIA امضا کرد. Meta «میلیونها» GPU NVIDIA Blackwell و نسل بعدی Vera Rubin به علاوه CPU مجزای Grace را مستقر خواهد کرد. تحلیلگران تخمین میزنند که این قرارداد ارزش دهها میلیارد دلار دارد و Meta را به اولین مشتری ابررایانه جهان تبدیل میکند که CPU مجزای NVIDIA Grace را در مقیاس بزرگ مستقر میکند.
در 24 فوریه، Meta و AMD یک قرارداد چند ساله تراشه به ارزش 60 میلیارد دلار تا 100 میلیارد دلار امضا کردند. Meta جدیدترین GPU سری MI450 و CPU نسل ششم EPYC AMD را خریداری خواهد کرد. به عنوان بخشی از این قرارداد، AMD ضمانتنامههایی را برای Meta برای حداکثر 160 میلیون سهم عادی که تقریباً 10 درصد سهام AMD را نشان میدهد، صادر کرد که بر اساس نقاط عطف تحویل به صورت تدریجی با قیمت 0.01 دلار به ازای هر سهم تثبیت میشود.
در 26 فوریه، The Information گزارش داد که Meta یک قرارداد چند ساله چند میلیارد دلاری با Google برای اجاره تراشههای TPU از Google Cloud برای آموزش و اجرای مدلهای زبانی بزرگ نسل بعدی خود امضا کرد. این دو شرکت همچنین در حال بحث در مورد خرید مستقیم TPU توسط Meta برای استقرار در مراکز داده خود از سال 2027 هستند.
یک شرکت رسانه اجتماعی در 10 روز با سه تامینکننده تراشه سفارش داد که احتمالاً بیش از 100 میلیارد دلار است.
این تنوع نیست. این خرید وحشت زده است.
چرا Meta این قدر عجله دارد؟
اول، تراشههای خودساخته دیگر گزینه قابل اجرایی نیستند. لغو پیشرفتهترین پروژه تراشه آموزشی به این معنی است که Meta برای آینده قابل پیشبینی مجبور خواهد بود برای برآورده کردن نیازهای آموزش هوش مصنوعی خود به خریدهای خارجی تکیه کند. در حالی که تراشه MTIA برای استنتاج میتواند برنامههای بالغ مانند سیستمهای توصیه را مدیریت کند، آموزش مدلهای پیشرفته مانند Avocado که رقیب GPT-5 است، به سختافزار NVIDIA یا معادل آن نیاز دارد.
دوم، رقبا منتظر نمیمانند. OpenAI قبلاً منابع عظیمی را از Microsoft، SoftBank و صندوق ثروت حاکمیتی امارات متحده عربی تأمین کرده است. Anthropic تأمین 1 میلیون TPU و تراشه Trainium را از Google و Amazon تأمین کرده است. Gemini 3 Google به طور کامل بر روی TPU آموزش دیده است. اگر Meta نتواند قدرت محاسباتی کافی به دست آورد، حتی نمیتواند ورود خود به مسابقه را تضمین کند.
سوم، و شاید اساسیترین، زاکربرگ نیاز دارد از «قدرت خرید» برای جبران کمبود «قابلیتهای تحقیق و توسعه» استفاده کند. فاجعه Llama 4، از دست دادن استعدادهای کلیدی و شکست در تراشههای خودساخته—این سه رویداد ترکیب شده روایت هوش مصنوعی Meta را در نگاه وال استریت شکننده کرده است. امضای قراردادهای بزرگ با Nvidia، AMD و Google در این لحظه حداقل یک سیگنال میفرستد: ما پول داریم، ما در حال خرید هستیم و تسلیم نشدهایم.
استراتژی فعلی Meta این است که اگر نمیتواند مشکلات نرمافزار را حل کند، در سختافزار سرمایهگذاری کند و اگر نمیتواند استعداد را حفظ کند، تراشه بخرد. اما مسابقه هوش مصنوعی بازی نیست که بتوانید با نوشتن چک برنده شوید. قدرت محاسباتی یک شرط ضروری است، اما شرط کافی نیست. بدون یک تیم مدل درجه یک و یک نقشه راه فنی واضح، هیچ تعداد تراشه چیزی را تغییر نمیدهد جز موجودی گران در یک انبار.
با نگاه به سه تراکنش Meta در فوریه، یک جزئیات جالب توسط بیشتر افراد نادیده گرفته شده است.
Meta Blackwell فعلی و Vera Rubin آینده را از Nvidia خرید؛ در قرارداد خود با AMD، MI450 و MI455X آینده را خرید؛ و TPU Ironwood فعلی را از Google اجاره کرد، با برنامه خرید مستقیم سال آینده.
سه تامینکننده، سه معماری سختافزاری و اکوسیستم نرمافزاری کاملاً متفاوت.
این بدان معناست که Meta باید بین سه اکوسیستم زیرین کاملاً متفاوت حرکت کند: CUDA NVIDIA، ROCm AMD و XLA/JAX Google. در حالی که یک استراتژی چند فروشنده میتواند ریسکهای زنجیره تأمین را کاهش دهد و حق بیمه خرید سختافزار را کاهش دهد، همچنین منجر به افزایش نمایی در پیچیدگی مهندسی خواهد شد.
این دقیقاً کشندهترین ضعف Meta است. برای فعال کردن یک مدل با تریلیونها پارامتر برای آموزش کارآمد بر روی این سه مدل برنامهنویسی زیرین کاملاً متفاوت بر روی سختافزارهای مختلف، نه تنها به مهندسانی که CUDA را درک میکنند، بلکه به معمارانی نیاز دارد که بتوانند یک چارچوب آموزشی کراسپلتفرم از ابتدا بسازند.
احتمالاً بیش از 100 نفر مانند این در جهان وجود ندارند. پانگ رومینگ یکی از آنها است.
خرج کردن 100 میلیارد دلار برای به دست آوردن پیچیدهترین پرتفوی سختافزار جهان در حالی که همزمان مغزهایی که میتوانند آن را کنترل کنند را از دست میدهند—این سوررئالیستیترین جنبه قمار زاکربرگ است.
با بزرگنمایی، رویکرد زاکربرگ به هوش مصنوعی در 18 ماه گذشته شباهت چشمگیری به استراتژی همه چیز او در کاوش متاورس سالها پیش دارد:
دیدن یک روند، سرمایهگذاری سنگین و استخدام تعداد زیادی از افراد؛ هنگام مواجهه با شکست، تغییر ناگهانی استراتژی و سرمایهگذاری مجدد سنگین.
دوره 2021 تا 2023 متاورس بود که منجر به ضررهای دهها میلیارد دلاری هر سال شد و قیمت سهام در نهایت از 380 دلار به 88 دلار سقوط کرد. دوره 2024 تا 2026 هوش مصنوعی بود که همچنین شامل خرج کردن پول بدون توجه به هزینه، بازسازی مکرر سازمانی و همان روایت «به من اعتماد کنید، من چشمانداز دارم» بود.
تفاوت این است که این روند هوش مصنوعی در واقع بسیار ملموستر از متاورس است. Meta از طرف دیگر، پول زیادی برای سوزاندن دارد؛ کسبوکار تبلیغاتی آن جریان نقدی قابل توجهی تولید میکند. در سهماهه چهارم 2025، درآمد Meta به 59.9 میلیارد دلار رسید که نشاندهنده افزایش 24 درصدی نسبت به سال قبل است.
مشکل این است: پول میتواند تراشه، قدرت محاسباتی و حتی افرادی که در ایستگاههای کاری مینشینند بخرد، اما نمیتواند افرادی که میمانند بخرد.
پانگ رومینگ OpenAI را انتخاب کرد، راس سالاخوتدینوف تصمیم به ترک گرفت و لکان تصمیم گرفت کسبوکار خود را شروع کند.
شرط فعلی زاکربرگ این است که تا زمانی که تراشههای کافی بخرد، مراکز داده کافی بسازد و پول کافی خرج کند، در نهایت میتواند افرادی را پیدا کند یا آموزش دهد که میتوانند از این منابع استفاده کنند.
این شرط ممکن است درست باشد. به هر حال، Meta یکی از ثروتمندترین شرکتهای فناوری جهان است و بیش از 100 میلیارد دلار جریان نقدی عملیاتی قویترین مزیت رقابتی آن است. از OpenAI تا Anthropic، از Google تا سایر رقبا، Meta به طور مداوم در حال جذب استعداد بوده است. طبق گزارش Qubit، نزدیک به 40 درصد از 44 عضو تیم ابر هوش Meta از OpenAI آمدهاند.
با این حال، واقعیت ظالمانه مسابقه هوش مصنوعی این است که ذخایر قدرت محاسباتی، فهرست استعدادها و عملکرد مدل همه اطلاعات عمومی هستند. حادثه تقلب معیار Llama 4 ثابت میکند که در این صنعت، نمیتوانید با اتکا به ارائههای PPT و روابط عمومی پیشتازی خود را حفظ کنید.
در نهایت، بازار فقط یک چیز را تشخیص میدهد: مدل شما چقدر خوب است.
همانطور که مسابقه تسلیحاتی هوش مصنوعی وارد 2026 میشود، ترتیب زنجیره غذایی شروع به روشن شدن کرده است:
در بالا OpenAI و Google هستند. OpenAI دارای قویترین مدلها، بزرگترین پایگاه کاربر و تهاجمیترین تأمین مالی است. Google یک ادغام عمودی کامل از تراشهها، مدلها و زیرساخت ابری خود دارد. Anthropic از نزدیک پیروی میکند و موقعیت خود را در سطح اول به لطف قدرت محصول مدل Claude و تأمین دوگانه قدرت محاسباتی از Google و Amazon محکم نگه میدارد.
Meta بیشترین پول را خرج کرده، بیشترین قراردادهای تراشه را امضا کرده و بیشترین بازسازی را انجام داده است، اما تا کنون، مدل پیشرفتهای که بتواند بازار را متقاعد کند ارائه نداده است.
داستان هوش مصنوعی Meta تا حدی شبیه Yahoo در 2005 است. در آن زمان، Yahoo یکی از ثروتمندترین شرکتهای اینترنت بود، به طور تهاجمی در حال خرید و خرج کردن پول بود، اما فقط نمیتوانست موتور جستجویی مانند Google ایجاد کند. پول همه چیز نیست. زاکربرگ باید دقیقاً بفهمد Meta میخواهد با هوش مصنوعی چه کاری انجام دهد، به جای اینکه فقط هر چیزی که مد روز است را بخرد.
البته، نوشتن مرگنامه Meta خیلی زود است. 3.58 میلیارد کاربر فعال ماهانه، 59.9 میلیارد دلار درآمد فصلی و بزرگترین مجموعه داده اجتماعی جهان داراییهایی هستند که هیچ رقیبی نمیتواند به راحتی آنها را تکرار کند.
اگر مدل نسل بعدی با نام رمز Avocado بتواند طبق برنامه در 2026 تحویل داده شود و به سطح برتر بازگردد، تمام هزینهها و بازسازی زاکربرگ به عنوان یک «جسارت استراتژیک برای تغییر جریان» بستهبندی خواهد شد. اما اگر دوباره از انتظارات کوتاه بیاید، آنگاه 135 میلیارد دلار فقط منجر به ردیفهایی از انبارهای ویفر سیلیکونی گرم شده خواهد شد.
به هر حال، مسابقه تسلیحاتی هوش مصنوعی سیلیکون ولی هرگز فاقد خریداران فوقالعادهای نبوده است که چکهای خود را تکان میدهند. آنچه که کم دارد افرادی هستند که میدانند چگونه از آن قدرت محاسباتی برای ساختن آینده استفاده کنند.


