BMS, otobüs, endüstriyel, enstrümantasyon kablosu için.

Bahar festivali sona erdiğinde, Deepseek'i çevreleyen heyecan güçlü olmaya devam ediyor. Son tatil, teknoloji endüstrisinde önemli bir rekabet duygusunu vurguladı ve birçoğu bu "yayın balığını" tartışıyor ve analiz etti. Silikon Vadisi benzeri görülmemiş bir kriz duygusu yaşıyor: Açık kaynak savunucuları görüşlerini tekrar dile getiriyor ve Openai bile kapalı kaynak stratejisinin en iyi seçim olup olmadığını yeniden değerlendiriyor. Düşük hesaplama maliyetlerinin yeni paradigması, NVIDIA gibi çip devleri arasında bir zincir reaksiyonu tetikledi ve ABD borsa geçmişinde tek günlük piyasa değeri kayıplarına yol açarken, devlet kurumları Deepseek tarafından kullanılan yongaların uygunluğunu araştırıyor. Yurtdışında Deepseek'in karışık incelemelerinin ortasında, yurtiçinde, olağanüstü bir büyüme yaşıyor. R1 modelinin piyasaya sürülmesinden sonra, ilişkili uygulama trafikte bir artış gördü, bu da uygulama sektörlerindeki büyümenin genel AI ekosistemini ileriye götüreceğini gösterdi. Olumlu yönü, Deepseek'in uygulama olanaklarını genişleteceği ve CHATGPT'ye güvenmenin gelecekte o kadar pahalı olmayacağını düşündürmesidir. Bu değişim, Openai'nin Deepseek R1'e yanıt olarak serbest kullanıcılara O3-Mini adlı bir akıl yürütme modelinin sağlanması ve O3-Mini halkının düşünce zincirini yapan daha sonraki yükseltmeler de dahil olmak üzere son faaliyetlerine yansıtılmıştır. Birçok denizaşırı kullanıcı, bu düşünce zinciri bir özet olarak hizmet etmesine rağmen, bu gelişmeler için Deepseek'e minnettarlık ifade etti.
İyimser bir şekilde, Deepseek'in yerli oyuncuları birleştirdiği açıktır. Eğitim maliyetlerini, çeşitli yukarı akış yonga üreticileri, ara bulut sağlayıcılar ve çok sayıda girişim, ekosisteme aktif olarak katılıyor ve Deepseek modelini kullanmak için maliyet verimliliğini artırıyor. Deepseek'in makalelerine göre, V3 modelinin tam eğitimi sadece 2.788 milyon H800 GPU saati gerektirir ve eğitim süreci oldukça kararlıdır. MOE (uzmanların karışımı) mimarisi, 405 milyar parametre ile Lama 3'e kıyasla eğitim öncesi maliyetleri on kat azaltmak için çok önemlidir. Şu anda V3, MOE'de bu kadar yüksek bir sürgün gösteren ilk kamuya tanınan modeldir. Ek olarak, MLA (çok katmanlı dikkat), özellikle akıl yürütme yönlerinde sinerjik olarak çalışır. AI teknolojisi incelemesi için bir analizde Chuanjing Technology'den bir araştırmacının, "MOE daha seyrek, hesaplama gücünü tam olarak kullanmak için gerekçelendirme sırasında gereken parti boyutu ne kadar büyük olursa, KVCache'nin büyüklüğü temel sınırlayıcı faktördür; MLA, KVCACE boyutunu önemli ölçüde azaltır." Genel olarak, Deepseek'in başarısı sadece tek bir teknolojinin kombinasyonunda yatmaktadır. Endüstri içeriden gelenler, Deepseek ekibinin mühendislik yeteneklerini övüyor, paralel eğitim ve operatör optimizasyonundaki mükemmelliklerine dikkat çekiyor ve her ayrıntıyı rafine ederek çığır açan sonuçlar elde ediyorlar. Deepseek'in açık kaynaklı yaklaşımı, büyük modellerin genel gelişimini daha da körüklüyor ve benzer modellerin görüntülere, videolara ve daha fazlasına genişliyorsa, bunun sektördeki talebi önemli ölçüde teşvik edeceği öngörülmektedir.
Üçüncü taraf akıl yürütme hizmetleri için fırsatlar
Veriler, yayınlanmasından bu yana Deepseek, sadece 21 gün içinde 22.15 milyon aktif kullanıcıyı (DAU) tahakkuk ettiğini, ChatGPT'nin kullanıcı tabanının% 41.6'sını elde ettiğini ve doubao'nun 16.95 milyon aktif aktif kullanıcısını aştığını, böylece küresel olarak en hızlı büyüyen uygulama haline geldiğini ve 157 ülkede Apple App Store'u doldurduğunu gösteriyor. Bununla birlikte, kullanıcılar sürüklenirken, siber bilgisayar korsanları acımasızca Deepseek uygulamasına saldırıyor ve sunucularında önemli bir zorlama yaratıyor. Endüstri analistleri, bunun kısmen, akıl yürütme için yeterli hesaplama gücünden yoksunken, Deepseek'in eğitim için kartlar dağıtmasından kaynaklandığına inanmaktadır. Bir endüstri içeriden AI teknoloji incelemesini bilgilendirdi: "Sık sunucu sorunları, daha fazla makine satın almak için ücretler veya finansman alarak kolayca çözülebilir; sonuçta Deepseek'in kararlarına bağlıdır." Bu, teknolojiye ve ürünlendirmeye odaklanmada bir değiş tokuş sunar. Deepseek, büyük ölçüde kendi kendini korumak için kuantum nicemlemesine güvenerek, çok az dış finansman aldı, bu da nispeten düşük nakit akış baskısı ve daha saf bir teknolojik ortam ile sonuçlandı. Şu anda, yukarıda belirtilen sorunlar ışığında, bazı kullanıcılar sosyal medyada Deepseek'i kullanım eşiklerini yükseltmeye veya kullanıcı konforunu artırmak için ücretli özellikler sunmaya çağırıyor. Ayrıca, geliştiriciler optimizasyon için resmi API veya üçüncü taraf API'leri kullanmaya başladılar. Bununla birlikte, Deepseek'in açık platformu kısa süre önce, "Mevcut sunucu kaynakları az ve API hizmet şarjları askıya alındı."
Bu şüphesiz AI altyapı sektöründeki üçüncü taraf satıcılar için daha fazla fırsat açıyor. Son zamanlarda, çok sayıda yerli ve uluslararası bulut devi Deepseek'in Model API'lerini başlattı - Ocak ayının sonunda ilk katılanlar arasında Microsoft ve Amazon'lar arasındaydı. Yerli lider Huawei Cloud, 1 Şubat'ta silikon tabanlı akışla işbirliği içinde Deepseek R1 ve V3 akıl yürütme hizmetlerini serbest bırakarak ilk hamleyi yaptı. AI teknolojisi incelemesinden gelen raporlar, silikon tabanlı Flow'un hizmetlerinin platformu etkili bir şekilde "çöktü". Big üç teknoloji şirketi-Bat (Baidu, Alibaba, Tencent) ve bayta da-Deepseek'in V2 model lansmanıyla ateşlenen ve Deepseek'in "Price Butcher" olarak adlandırılmaya başladığı geçen yılki bulut satıcısı fiyat savaşlarını anımsatan düşük maliyetli, sınırlı süreli teklifler yayınladı. Bulut satıcılarının çılgınca eylemleri, Microsoft Azure ve Openai arasındaki daha önceki güçlü bağları yansıtıyor, burada Microsoft, Openai'ye 1 milyar dolarlık önemli bir yatırım yaptı ve 2023'te Chatgpt'in lansmanından sonra faydalar elde etti. Bu durumda, Deepseek sadece ürün ısısı açısından ChatGPT'yi aşmakla kalmadı, aynı zamanda Lama'nın GPT-3'ü canlandıran heyecana benzer şekilde O1 sürümünü takiben açık kaynak modelleri de tanıttı.
Gerçekte, bulut sağlayıcıları da kendilerini AI uygulamaları için trafik ağ geçitleri olarak konumlandırıyor, yani geliştiricilerle derinlemesine bağların önleyici avantajlara dönüştüğü anlamına geliyor. Raporlar, Baidu Smart Cloud'un modelin lansman gününde Qianfan platformu aracılığıyla Deepseek modelini kullanan 15.000'den fazla müşteriye sahip olduğunu gösteriyor. Buna ek olarak, birkaç küçük firma silikon tabanlı akış, luchen teknolojisi, Chuanjing teknolojisi ve Deepseek modelleri için destek başlatan çeşitli AI infra sağlayıcıları gibi çözümler sunmaktadır. AI Technology Review, Deepseek'in yerelleştirilmiş dağıtımları için mevcut optimizasyon fırsatlarının öncelikle iki alanda var olduğunu öğrendi: biri, hibrid GPU/CPU interme kullanırken lokal olarak 671 milyar parametre MOE modelini dağıtmak için karışık bir akıl yürütme yaklaşımı kullanarak MOE modelinin seyrek özellikleri için optimize ediliyor. Ayrıca, MLA'nın optimizasyonu hayati önem taşır. Bununla birlikte, Deepseek'in iki modeli hala dağıtım optimizasyonunda bazı zorluklarla karşı karşıyadır. Chuanjing Technology'den bir araştırmacı, "Modelin boyutu ve sayısız parametresi nedeniyle, optimizasyon gerçekten karmaşıktır, özellikle performans ve maliyet arasında optimal bir denge elde etmenin zor olacağı yerel dağıtımlar için." En önemli engel, bellek kapasitesi sınırlarının üstesinden gelmektir. "Yoğun kısımlar GPU'da kalırken, yüksek performanslı CPU operatörleri kullanarak işlemek için CPU/DRAM'da sadece seyrek MOE matrisinin CPU/DRAM üzerindeki paylaşılmayan kısımlarını yerleştirerek heterojen bir işbirliği yaklaşımı benimsiyoruz" diye açıkladı. Raporlar, Chuanjing'in açık kaynaklı çerçevesi Ktransformers'ın öncelikle bir şablon aracılığıyla orijinal Transformers uygulamasına çeşitli stratejiler ve operatörler enjekte ettiğini ve Cudagraph gibi yöntemleri kullanarak çıkarım hızını önemli ölçüde artırdığını göstermektedir. Deepseek, büyüme faydaları belirginleştikçe bu girişimler için fırsatlar yarattı; Birçok firma, Deepseek API'sını başlattıktan sonra, optimizasyon arayan önceki müşterilerden sorular alarak göze çarpan müşteri büyümesi bildirmiştir. Endüstri içeriden gelenler, "Geçmişte, biraz yerleşik müşteri grupları genellikle ölçek nedeniyle maliyet avantajlarına sıkı sıkıya bağlı daha büyük şirketlerin standart hizmetlerine kilitlendi. Ancak, Bahar Festivali'nden önce Deepseek-R1/V3'ün konuşlandırılmasını tamamladıktan sonra, birkaç tanınmış müşterilerden aniden işbirliği talepleri aldık ve hatta daha önce hareketsiz müşteriler Deepseek hizmetlerimizi tanıtmak için temas kurdu." Şu anda, Deepseek'in model çıkarım performansı gittikçe kritik hale getirdiği ve büyük modellerin daha geniş bir şekilde benimsenmesi ile bu, AI indüstri endüstrisindeki gelişimi önemli ölçüde etkilemeye devam edecektir. Deepseek düzeyinde bir model yerel olarak düşük bir maliyetle konuşlandırılabilirse, hükümet ve kurumsal dijital dönüşüm çabalarına büyük ölçüde yardımcı olacaktır. Bununla birlikte, bazı müşteriler büyük model yetenekleri konusunda yüksek beklentiler elde edebileceğinden, zorluklar devam ederek performans ve maliyet dengelemenin pratik dağıtımda hayati önem taşımasını daha belirgin hale getirebilir.
Deepseek'in ChatGPT'den daha iyi olup olmadığını değerlendirmek için, temel farklılıklarını, güçlü yönlerini ve kullanım durumlarını anlamak önemlidir. İşte kapsamlı bir karşılaştırma:
Özellik/yönü | Deepseek | Chatgpt |
---|---|---|
Sahiplik | Bir Çinli şirket tarafından geliştirildi | Openai tarafından geliştirildi |
Kaynak modeli | Açık kaynaklı | Tescilli |
Maliyet | Kullanımı ücretsiz; Daha ucuz API erişim seçenekleri | Abonelik veya kullanım başına ödeme fiyatlandırması |
Özelleştirme | Son derece özelleştirilebilir, kullanıcıların ince ayar yapmasına ve üzerine inşa etmesine izin verir | Sınırlı özelleştirme mevcut |
Belirli görevlerde performans | Veri analizi ve bilgi alımı gibi belirli alanlarda mükemmel | Yaratıcı yazma ve konuşma görevlerinde güçlü performansa sahip çok yönlü |
Dil desteği | Çince dili ve kültürüne güçlü odaklanma | Geniş dil desteği ama ABD merkezli |
Eğitim maliyeti | Verimlilik için optimize edilmiş daha düşük eğitim maliyetleri | Önemli hesaplama kaynakları gerektiren daha yüksek eğitim maliyetleri |
Yanıt Varyasyonu | Muhtemelen jeopolitik bağlamdan etkilenen farklı yanıtlar sunabilir | Eğitim verilerine dayanan tutarlı cevaplar |
Hedef kitle | Esneklik isteyen geliştiricilere ve araştırmacılara yönelik | Konuşma yetenekleri arayan genel kullanıcılara yönelik |
Kullanım Koşulları | Kod oluşturma ve hızlı görevler için daha verimli | Metin oluşturmak, sorguları cevaplamak ve diyalogda bulunmak için ideal |
"Nvidia'yı bozma" üzerine eleştirel bir bakış açısı
Şu anda, Huawei'nin yanı sıra, Moore Threads, Muxi, Biran Technology ve Tianxu Zhixin gibi birkaç yerli çip üreticisi de Deepseek'in iki modeline uyum sağlıyor. Bir çip üreticisi AI Technology Review, "Deepseek'in yapısı inovasyonu gösteriyor, ancak bir LLM olarak kalıyor. Deepseek'e uyumumuz öncelikle akıl yürütme uygulamalarına odaklanıyor ve teknik uygulamayı oldukça basit ve hızlı hale getiriyor." Bununla birlikte, MOE yaklaşımı, depolama ve dağıtım açısından daha yüksek talepler gerektirir, yerli yongalarla konuşlandırılırken uyumluluğun sağlanması ve adaptasyon sırasında çözünürlüğe ihtiyaç duyan çok sayıda mühendislik zorluğu sunar. Bir endüstri uygulayıcısı pratik deneyime dayanarak, "Şu anda, yerel hesaplama gücü NVIDIA'yı kullanılabilirlik ve istikrarla eşleştirmiyor, yazılım ortam kurulumu, sorun giderme ve temel performans optimizasyonu için orijinal fabrika katılımı gerektiriyor." Dedi. Eşzamanlı olarak, "Deepseek R1'in büyük parametre ölçeği nedeniyle, yerel hesaplama gücü paralelleştirme için daha fazla düğüm gerektirir. Ayrıca, yerli donanım spesifikasyonları hala biraz geride kalıyor; örneğin, Huawei 910B şu anda Deepseek tarafından getirilen FP8 çıkarımını destekleyemiyor." Deepseek V3 modelinin en önemli olaylarından biri, son derece büyük bir model üzerinde etkili bir şekilde doğrulanan ve önemli bir başarıyı işaret eden bir FP8 karma hassas eğitim çerçevesinin tanıtılmasıdır. Daha önce, Microsoft ve Nvidia gibi büyük oyuncular ilgili çalışmalar önerdi, ancak sektörde fizibilite konusunda şüpheler. INT8 ile karşılaştırıldığında, FP8'in birincil avantajı, eğitim sonrası nicemlemenin neredeyse kayıpsız hassasiyet elde edebileceği ve çıkarım hızını önemli ölçüde artırabileceği anlaşılmaktadır. FP16 ile karşılaştırılırken FP8, NVIDIA'nın H20'sinde iki kata kadar hızlanma ve H100'de 1.5 kat daha fazla hızlanma gerçekleştirebilir. Özellikle, yerli hesaplamalı güç ve yerli modellerin eğilimini çevreleyen tartışmalar ivme kazandıkça, NVIDIA'nın bozulup bozulamayacağı ve Cuda Moat'ın atlanıp atlanamayacağı konusunda spekülasyonlar giderek yaygınlaşıyor. İnkar edilemez bir gerçek, Deepseek'in gerçekten Nvidia'nın piyasa değerinde önemli bir düşüşe neden olduğudur, ancak bu değişim Nvidia'nın üst düzey hesaplama güç bütünlüğü ile ilgili soruları gündeme getiriyor. Daha önce kabul edilen sermaye odaklı hesaplama birikimi ile ilgili anlatılara meydan okunmaktadır, ancak NVIDIA'nın eğitim senaryolarında tam olarak değiştirilmesi zor olmaya devam etmektedir. Deepseek'in derin CUDA kullanımının analizi, iletişim için SM kullanmak veya ağ kartlarını doğrudan manipüle etmek gibi esnekliğin normal GPU'ların uyum sağlaması mümkün olmadığını göstermektedir. Endüstri bakış açıları, Nvidia'nın hendekinin sadece Cuda'nın kendisinden ziyade tüm Cuda ekosistemini ve Deepseek'in kullandığı PTX (paralel iplik yürütme) talimatlarını kapsadığını vurgulamaktadır. "Kısa vadede, NVIDIA'nın hesaplama gücü atlanamaz - bu özellikle eğitimde açıktır; ancak, iç kartların akıl yürütme için dağıtılması daha hızlı olacaktır, bu nedenle ilerleme daha hızlı olacaktır. Yerli kartların uyarlanması öncelikle çıkarım üzerine odaklanmaktadır; hiç kimse, Deepseek'in ölçekte yerli kartlar üzerindeki performansının bir modelini eğitmeyi başaramamıştır." Genel olarak, çıkarım açısından bakıldığında, koşullar yerli büyük model çipleri için cesaret vericidir. Çıkarım alanındaki yerli yonga üreticileri için fırsatlar, eğitimin girişi engelleyen aşırı yüksek gereksinimleri nedeniyle daha belirgindir. Analistler, yerel çıkarım kartlarını kullanmanın yeterli olduğunu iddia ediyorlar; Gerekirse, ek bir makine elde etmek mümkündür, oysa eğitim modelleri benzersiz zorluklar doğurur - artan sayıda makineyi yönetmek külfetli olabilir ve daha yüksek hata oranları eğitim sonuçlarını olumsuz etkileyebilir. Eğitimin de belirli küme ölçeği gereksinimleri vardır, ancak çıkarım kümelerindeki talepler katı değildir, böylece GPU gereksinimlerini hafifletmektedir. Şu anda, Nvidia'nın tek H20 kartının performansı Huawei veya Kambriyen'in performansı; Gücü kümelenmede yatar. Based on the overall impact on the computational power market, the founder of Luchen Technology, You Yang, noted in an interview with AI Technology Review, "DeepSeek may temporarily undermine the establishment and rental of ultra-large training computational clusters. In the long run, by significantly reducing the costs associated with large model training, reasoning, and applications, market demand is likely to surge. Subsequent iterations of AI based on this will therefore continually drive Hesaplamalı güç piyasasında sürekli talep. " Buna ek olarak, "Deepseek'in akıl yürütme ve ince ayar hizmetlerine yönelik artan talebi, yerel kapasitelerin nispeten zayıf olduğu, küme sonrası boşluklardan atıkların azaltılmasına yardımcı olduğu yerli hesaplamalı manzara ile daha uyumludur; bu, üreticiler için yerel hesaplama ekosisteminin farklı seviyelerinde uygun fırsatlar yaratır." Luchen Technology, Deepseek R1 Serisi Akıl Yürütme API'lerini ve Bulut Görüntüleme Hizmetlerini Yurtiçi Hesaplamalı Gücüne dayalı olarak başlatmak için Huawei Cloud ile işbirliği yaptı. Yang, gelecek hakkında iyimserliği dile getirdiniz: "Deepseek, yurt içinde üretilen çözümlere olan güven aşılıyor, ileriye dönük yerli hesaplama yeteneklerine daha fazla coşku ve yatırımı teşvik ediyor."

Çözüm
Deepseek'in chatgpt'ten "daha iyi" olup olmadığı, kullanıcının özel ihtiyaçlarına ve hedeflerine bağlıdır. Esneklik, düşük maliyet ve özelleştirmeye ihtiyaç duyan görevler için Deepseek daha üstün olabilir. Yaratıcı yazma, genel sorgulama ve kullanıcı dostu konuşma arayüzleri için chatgpt liderlik edebilir. Her araç farklı amaçlara hizmet eder, bu nedenle seçim büyük ölçüde kullanıldıkları bağlama bağlı olacaktır.
Kontrol Kabloları
Yapılandırılmış kablolama sistemi
Ağ ve veri, fiber optik kablo, yama kablosu, modüller, yüz plakası
16 Nisan-18, 2024 Dubai'de Orta Doğu-Enerji
Moskova'da 16 Nisan 15, 2024 Securika
9 Mayıs 2024 Şangay'da Yeni Ürünler ve Teknolojiler Lansman Etkinliği
22 Ekim 25, 2024 Pekin'de Güvenlik Çin
19-20 Kasım, 2024 Bağlı Dünya KSA
Post süresi:-10-2025 Şubat