
هيمنت شركة “إنفيديا” على سوق رقائق الذكاء الاصطناعي دون منافس حقيقي؛ لكن بحسب “بلومبرج” فيبدو أن أحد أبرز البدائل كان موجودًا أمام أعين الجميع طوال الوقت، إذ استطاعت “جوجل” خلال السنوات الـ10 الأخيرة، تطوير وحدات المعالجة الخاصة بها المعروفة باسم TPUs لتسريع محرّك البحث وتحسين الكفاءة؛ ثم جرى تكييفها لاحقًا لخدمة تطبيقات الذكاء الاصطناعي لدى الشركة.
واليوم، بدأت “جوجل” في حصد صفقات كبيرة لوحداتها، ما يشير إلى أنها قد تمثل بديلًا جديًّا لرقائق “إنفيديا” المخصّصة للذكاء الاصطناعي والمعروفة بـGPUs، والتي تُعد المعيار الأساسي لتدريب وتشغيل نماذج اللغة الكبيرة.
وبيّنت “بلومبرج” الفرق بين GPU وTPU؛ إذ يعتبر كلا النوعين قادرًا على تنفيذ الكمّ الهائل من العمليات الحسابية المطلوبة لتدريب نماذج الذكاء الاصطناعي.
لكنّ طريقة الاختلاف بينهما هي في عملية إنجاز المهمة، فـGPUs من إنفيديا طُوِّرت أساسًا لمعالجة الرسوميات في ألعاب الفيديو، عبر تنفيذ آلاف المهام بالتوازي بواسطة عدد ضخم من الأنوية، ما جعلها مناسبة جدًّا لمهام الذكاء الاصطناعي التي تحتاج إلى سرعات عالية لا تضاهيها التقنيات المنافسة.
أمَّا TPUs من “جوجل” فجرى تصميمها خصيصًا لمهام ضرب المصفوفات، وهي العملية الأساسية التي يقوم عليها تدريب الشبكات العصبية التي تشغّل روبوتات الدردشة مثل ChatGPT وClaude، كما تتميّز بأنها أقل تنوعًا من GPUs لكنها أكثر كفاءة وأقل استهلاكًا للطاقة في هذه العمليات المتكررة المتسلسلة، وفي المقابل، تتمتع GPUs بمرونة أكبر وقابلية أعلى للبرمجة، لكنها أكثر تكلفة في التشغيل.
*كيف ظهرت TPUs؟*
بدأت “جوجل” العمل على أول وحدة TPU عام 2013 وطرحتها بعد ذلك بعامين؛ إذ استُخدمت في البداية لتسريع البحث وتحسين الأداء؛ لكن في 2018، بدأت الشركة إتاحة TPUs لعملاء منصّة “جوجل كلاود”، بحيث يستطيع المستخدمون التشغيل على نفس التقنية التي تعتمد عليها خدمات جوجل الأساسية.
ومع تطور نماذج “جوجل” و”ديب مايند” و”جيميناي” بدأت فرق الذكاء الاصطناعي تزويد مصمّمي الشرائح بمتطلبات دقيقة، ما سمح بتخصيص TPUs بما يلائم هذه النماذج.
وأحدث نسخة من TPU وتُسمّى Ironwood كُشف عنها في أبريل الماضي، وهي مبرَّدة بالسائل ومخصّصة لمهام الاستدلال — أي تشغيل النماذج بدلًا من تدريبها، وتتوفر ضمن مجموعات تضم 256 شريحة أو أخرى أضخم تحتوي على 9216 شريحة.
ويقول المحلل جاي جولديبرج إن TPUs، قد تتفوق على GPUs في بعض المهام لأن جوجل تستطيع “إزالة الكثير من مكونات الشريحة غير الضرورية للذكاء الاصطناعي”، ما يجعلها أكثر كفاءة وأقل استهلاكًا للطاقة، ومع الوصول إلى الجيل السابع، أصبحت هذه الوحدات أقوى وأسرع وأقل تكلفة للتشغيل.
من يستخدم TPUs؟
وتشمل قائمة المستخدمين الحاليين كل من “سيف سوبر إنتيليجنس”، و”سيلزفورس”، و”ميدجورني”، “أنثروبيك”.
وبموجب صفقة أعلنت في أكتوبر الماضي، ستحصل “أنثروبيك” على وصول إلى أكثر من جيجاوات من قدرة جوجل الحوسبية، باستخدام ما يصل إلى مليون شريحة TPU.
وبعد ذلك بشهر، ذكرت تقارير أن “ميتا” تجري محادثات لاستخدام TPUs في مراكز بياناتها عام 2027.
وتعكس هذه التطورات حجم الإقبال المتزايد على TPUs في وقت تسعى فيه شركات الذكاء الاصطناعي لزيادة قدراتها الحوسبية بنحو غير مسبوق.
*فرص التوسّع*
ترى “بلومبرج” أنَّ الشركات الكبرى في الذكاء الاصطناعي تنفق عشرات المليارات على رقائق “إنفيديا” المكلفة، مع الحرص على تقليل اعتمادها عليها، خصوصًا في ظل النقص المستمر، ما يفتح سوقًا ضخمة محتملة أمام TPUs.
وحاليًا، لا يمكن استخدام TPUs إلا عبر حجز قدرات الحوسبة في سحابة جوجل، لكن صفقة “أنثروبيك” قد تفتح الباب أمام توسعها إلى سُحب أخرى، وفق محللي “بلومبرج”.
تضيف “بلومبرج”: “رغم ذلك، فإن أحدًا — بما في ذلك جوجل لا يسعى لاستبدال رقائق إنفيديا بالكامل؛ فسرعة تطور الذكاء الاصطناعي تجعل ذلك مستحيلًا في الوقت الحالي”.
وتستطرد: ولا تزال جوجل أحد أكبر عملاء إنفيديا لأنها تحتاج إلى مرونة لتلبية احتياجات جميع المستخدمين، فلو تغيّر نموذج الذكاء الاصطناعي الخاص بأحد العملاء، فإن GPUs أكثر قدرة على التعامل مع مجموعة أوسع من المهام”.
حتى الشركات التي تتبنّى TPUs تواصل الاستثمار بكثافة في رقائق إنفيديا؛ فعلى سبيل المثال، أعلنت “أنثروبيك” عن صفقة كبيرة مع “إنفيديا” بعد أسابيع فقط من تعاقدها مع “جوجل”.
وقد تكون أفضل فرصة أمام TPUs هي أن تصبح جزءًا من “سلة” التقنيات المطلوبة لتشغيل موجة النمو الهائلة للذكاء الاصطناعي.




