BMS, BUS, Endüstriyel, Enstrümantasyon Kabloları için.

Elon Musk ve xAI ekibi, Grok'un son sürümü olan Grok3'ü canlı yayın sırasında resmen duyurdu. Bu etkinlikten önce, Musk'ın 7/24 tanıtım abartısıyla birleşen önemli miktarda ilgili bilgi, Grok3 için küresel beklentileri benzeri görülmemiş seviyelere çıkardı. Sadece bir hafta önce, Musk DeepSeek R1 hakkında yorum yaparken canlı yayın sırasında kendinden emin bir şekilde "xAI daha iyi bir AI modeli başlatmak üzere" dedi. Canlı olarak sunulan verilerden, Grok3'ün matematik, bilim ve programlama için tüm mevcut ana akım modelleri kıyaslamalarda geride bıraktığı bildirildi, Musk hatta Grok3'ün SpaceX'in Mars misyonlarıyla ilgili hesaplamalı görevlerde kullanılacağını iddia ederek "üç yıl içinde Nobel Ödülü seviyesinde atılımlar" olacağını tahmin etti. Ancak, bunlar şu anda sadece Musk'ın iddiaları. Lansmandan sonra, Grok3'ün son beta sürümünü test ettim ve büyük modeller için klasik hileli soruyu sordum: "Hangisi daha büyük, 9.11 mi yoksa 9.9 mu?" Ne yazık ki, hiçbir niteleyici veya işaret olmadan, sözde en zeki Grok3 bile bu soruyu doğru cevaplayamadı. Grok3 sorunun anlamını doğru bir şekilde belirleyemedi.
Bu test kısa sürede birçok arkadaşının dikkatini çekti ve tesadüfen, yurtdışında yapılan benzer testler Grok3'ün "Pisa Kulesi'nden hangi top önce düşer?" gibi temel fizik/matematik sorularıyla boğuştuğunu gösterdi. Bu nedenle, esprili bir şekilde "basit soruları cevaplamak istemeyen bir dahi" olarak etiketlendi.

Grok3 iyidir ama R1 veya o1-Pro'dan daha iyi değildir.
Grok3, pratikte birçok genel bilgi testinde "başarısızlık" yaşadı. xAI lansman etkinliği sırasında Musk, sık sık oynadığını iddia ettiği Path of Exile 2 oyunundaki karakter sınıflarını ve efektleri analiz etmek için Grok3'ü kullandığını gösterdi, ancak Grok3'ün verdiği cevapların çoğu yanlıştı. Musk, canlı yayın sırasında bu bariz sorunu fark etmedi.
Bu hata, yalnızca yurtdışındaki internet kullanıcılarının Musk'ın oyunlarda "bir ikame bulduğu" için onunla alay etmeleri için daha fazla kanıt sağlamakla kalmadı, aynı zamanda Grok3'ün pratik uygulamalardaki güvenilirliği konusunda da önemli endişelere yol açtı. Böyle bir "dahi" için, gerçek yetenekleri ne olursa olsun, Mars keşif görevleri gibi son derece karmaşık uygulama senaryolarındaki güvenilirliği şüpheli kalmaya devam ediyor.
Şu anda, Grok3'e haftalar önce erişim sağlayan ve dün modelin yeteneklerini birkaç saat test eden birçok testçinin ortak bir sonuca vardığı görülüyor: "Grok3 iyi, ancak R1 veya o1-Pro'dan daha iyi değil."

"Nvidia'yı Bozmak" Konusunda Eleştirel Bir Bakış Açısı
Sürüm sırasında resmi olarak sunulan PPT'de Grok3'ün Chatbot Arena'da "çok önde" olduğu gösterildi, ancak bu sunumda akıllıca kullanılan grafik teknikleri: Liderlik tablosundaki dikey eksen yalnızca 1400-1300 puan aralığındaki sonuçları listeliyordu, bu da test sonuçlarındaki orijinal %1'lik farkın bu sunumda olağanüstü derecede önemli görünmesini sağlıyor.

Gerçek model puanlama sonuçlarında Grok3, DeepSeek R1 ve GPT-4.0'dan sadece %1-2 öndedir; bu da birçok kullanıcının pratik testlerde "fark edilir bir fark" bulamadığını gösteren deneyimlerine karşılık gelir. Grok3, haleflerini sadece %1-2 oranında geçmektedir.

Grok3, şu anda kamuya açık olarak test edilen tüm modellerden daha yüksek puan almış olsa da, çoğu kişi bunu ciddiye almıyor: sonuçta, xAI daha önce Grok2 döneminde "puan manipülasyonu" nedeniyle eleştirilmişti. Liderlik tablosu cevap uzunluğu stilini cezalandırdıkça, puanlar büyük ölçüde azaldı ve bu da sektör içeriden kişilerinin "yüksek puan ama düşük yetenek" olgusunu sık sık eleştirmelerine yol açtı.
İster lider tablosu "manipülasyonu" yoluyla ister çizimlerdeki tasarım hileleri yoluyla olsun, xAI ve Musk'ın model yeteneklerinde "sürüye liderlik etme" kavramına olan saplantısını ortaya koyuyorlar. Musk bu marjlar için yüksek bir bedel ödedi: lansman sırasında 200.000 H100 GPU kullandığını (canlı yayın sırasında "100.000'den fazla" olduğunu iddia etti) ve toplam 200 milyon saatlik bir eğitim süresi elde ettiğini övündü. Bu, bazılarının bunun GPU endüstrisi için önemli bir nimet olduğuna inanmasına ve DeepSeek'in sektör üzerindeki etkisini "aptalca" olarak değerlendirmesine yol açtı. Özellikle bazıları, salt hesaplama gücünün model eğitiminin geleceği olacağına inanıyor.
Ancak bazı internet kullanıcıları, DeepSeek V3 üretmek için iki ay boyunca 2000 H800 GPU tüketimini karşılaştırdı ve Grok3'ün gerçek eğitim güç tüketiminin V3'ün 263 katı olduğunu hesapladı. 1402 puan alan DeepSeek V3 ile Grok3 arasındaki fark sadece 100 puanın altında. Bu verilerin yayınlanmasının ardından, birçok kişi Grok3'ün "dünyanın en güçlüsü" unvanının arkasında açık bir marjinal fayda etkisinin yattığını hemen fark etti; daha büyük modellerin daha güçlü performans üretme mantığı azalan getiriler göstermeye başladı.

"Yüksek puanlı ancak düşük yetenekli" olsa bile, Grok2, X (Twitter) platformundan kullanımını desteklemek için büyük miktarda yüksek kaliteli birinci taraf verisine sahipti. Ancak, Grok3'ün eğitiminde, xAI doğal olarak OpenAI'nin şu anda karşı karşıya olduğu "tavan" ile karşılaştı - premium eğitim verilerinin eksikliği, modelin yeteneklerinin marjinal faydasını hızla ortaya koyuyor.
Grok3 ve Musk geliştiricileri muhtemelen bu gerçekleri derinlemesine anlayan ve tanımlayan ilk kişilerdir, bu yüzden Musk sosyal medyada kullanıcıların şu anda deneyimlediği sürümün "hala sadece beta" olduğunu ve "tam sürümün önümüzdeki aylarda yayınlanacağını" sürekli olarak belirtmiştir. Musk, Grok3'ün ürün yöneticisi rolünü üstlenmiş ve kullanıcıların yorumlar bölümünde karşılaşılan çeşitli sorunlar hakkında geri bildirim sağlamalarını önermiştir. Dünya'nın en çok takip edilen ürün yöneticisi olabilir.
Yine de, bir gün içinde, Grok3'ün performansı şüphesiz daha güçlü büyük modeller eğitmek için "muazzam hesaplama gücüne" güvenmeyi uman kişiler için alarmları çaldı: halka açık Microsoft bilgilerine göre, OpenAI'nin GPT-4'ü 1,8 trilyon parametrelik bir parametre boyutuna sahip, bu da GPT-3'ün on katından fazla. Söylentiler, GPT-4.5'in parametre boyutunun daha da büyük olabileceğini öne sürüyor.
Model parametre boyutları yükseldikçe, eğitim maliyetleri de fırlıyor. Grok3'ün varlığıyla, parametre boyutu aracılığıyla daha iyi model performansı elde etmek için "para harcamaya" devam etmek isteyen GPT-4.5 ve diğerleri gibi rakipler, artık açıkça görünen tavanı dikkate almalı ve bunu nasıl aşacaklarını düşünmelidir. Bu anda, OpenAI'nin eski baş bilim insanı Ilya Sutskever, geçen Aralık ayında daha önce "Alıştığımız ön eğitim sona erecek" demişti ve bu, tartışmalarda yeniden gündeme gelerek büyük modeller eğitmek için gerçek yolu bulma çabalarını teşvik etti.

Ilya'nın bakış açısı sektörde alarm zillerini çaldı. Erişilebilir yeni verilerin yakın zamanda tükeneceğini doğru bir şekilde öngördü ve bu da veri edinimi yoluyla performansın artırılamayacağı bir duruma yol açtı ve bunu fosil yakıtların tükenmesine benzetti. "Petrol gibi, internetteki insan tarafından üretilen içerik de sınırlı bir kaynaktır." dedi. Sutskever'ın tahminlerine göre, ön eğitimden sonraki yeni nesil modeller "gerçek özerkliğe" ve "insan beynine benzer" muhakeme yeteneklerine sahip olacak.
Bugünün, öncelikli olarak içerik eşleştirmeye (önceden öğrenilen model içeriğine dayalı) dayanan önceden eğitilmiş modellerinin aksine, gelecekteki AI sistemleri insan beyninin "düşünmesine" benzer bir şekilde sorunları çözmek için metodolojiler öğrenebilecek ve oluşturabilecektir. Bir insan, sadece temel mesleki literatürle bir konuda temel yeterlilik elde edebilirken, büyük bir AI modeli, sadece en temel giriş seviyesi etkinliği elde etmek için milyonlarca veri noktasına ihtiyaç duyar. Kelimeler biraz değiştirilse bile, bu temel sorular doğru bir şekilde anlaşılmayabilir ve bu da modelin zekada gerçekten gelişmediğini gösterir: makalenin başında belirtilen temel ancak çözülemeyen sorular bu olgunun açık bir örneğini temsil eder.

Çözüm
Ancak, kaba kuvvetin ötesinde, Grok3 endüstriye "önceden eğitilmiş modellerin sonuna yaklaştığını" göstermeyi başarırsa, bu durum alan için önemli sonuçlar doğuracaktır.
Belki de Grok3 etrafındaki çılgınlık yavaş yavaş yatıştığında, Fei-Fei Li'nin "sadece 50 dolara belirli bir veri kümesinde yüksek performanslı modelleri ayarlama" örneğine benzer daha fazla vakaya tanık olacağız ve sonunda AGI'ye giden gerçek yolu keşfedeceğiz.
Kontrol Kabloları
Yapısal Kablolama Sistemi
Ağ&Veri, Fiber Optik Kablo, Patch Cord, Modüller, Ön Panel
16-18 Nisan 2024 Ortadoğu-Dubai'de Enerji
16-18 Nisan 2024 Securika Moskova'da
9 Mayıs 2024 Şanghay'da YENİ ÜRÜNLER VE TEKNOLOJİLER LANSMAN ETKİNLİĞİ
22-25 Ekim 2024 Pekin'de GÜVENLİK ÇİN
19-20 Kasım 2024 CONNECTED WORLD KSA
Gönderi zamanı: 19-Şub-2025