DeepSeek skakar Silicon Valley – AI-utmanare toppar App Store

Om det stämmer så är det som all annan "AI" alltså, åt olika håll.

1 gillning

Att DeepSeek börjar ta ritkigt marknadsandelar

1 gillning

Men det finns mycket att fundera på här,

Kinas AI-startup DeepSeek har på bara $6M skakat om marknaden och raderat över 2 biljoner dollar i amerikanskt marknadsvärde. NVIDIA? De har precis förlorat 500 miljarder dollar i marknadsvärde. :open_mouth:

DeepSeek har gjort det som många sa var omöjligt. Deras nya modell, DeepSeek R1, konkurrerar med OpenA's GPT-4, men till en bråkdel av kostnaden

Träningskostnad

  • OpenAI GPT-4: $600M+
  • DeepSeek: $6M

Driftskostnad:

  • OpenAI: $100+ per miljon tokens
  • DeepSeek: <$4 per miljon tokens

Och det stannar inte där, DeepSeek R1 är öppen källkod och tillgänglig för alla.

Vad innebär detta?
Det här är mer än bara en kostnadsfråga, det är en total förändring av spelreglerna. Silicon Valleys AI-försprång håller på att försvinna, och vi bevittnar hur Kinas AI-dominans växer.

DeepSeek R1 är

  • 27 gånger billigare än OpenAI:s modeller
  • Öppen källkod med generös licensiering
  • Transparent i hur modellen resonerar

Om vi inte längre behöver massiva GPU-kluster eller enorma mängder elektricitet för att skapa kraftfull AI, vad betyder det för branschen?

Inte konstigt Project Stargate är så viktigt för USA och de $500 biljonerna som ska investeras under kommande fyra åren

4 gillningar

Att den amerikanska AI-bubblan är på väg att spricka redan.
Trump lär vara rasande.

Jätte bra för de allra flesta tänker jag?
Kanske inte för aktieägarna hos Nvidia förstås men man kan ju inte vinna jämt.

Har du förstått hur den kan vara så mycket effektivare?

27 gånger är ju fullkomligt revolutionerande så det måste ju finnas något dom gör i koden som förändrar allt. Knappast så att OpenAI:s utvecklare är dåliga programmerare...

Jag körde in deepseek-r1:14b nyss i ollama. Väger in runt 9GB i storlek. Nästa steg är deepseek-r1:32b vilket börjar bli lite jobbigare att ha på egen hårdvara. 20GB stor.

Sedan finns deepseek-r1:70b på 43GB och deepseek-r1:671b på 404GB vilket kräver en hel del av hårdvaran :wink:

Ska i alla fall testköras ett tag här!

2 gillningar

Ja, den blev nyheter för någon vecka sedan och jag provar den.

Fråga efter massakern på himmelska fridens torg och den byter samtalsämne.

Ursprunget gör också att jag skapade en användare baserat på en mejladress som jag bara använder för deep seek.

1 gillning

Genererar en ny e-postadress för alla sajter jag registrerar mig på. Skönt att bara fimpa e-postadressen om den läcker ut.

3 gillningar

Jag använder "dölj min e-mail" flitigt men i detta fall så gick jag till och med ett steg längre och använder en specifik gmail adress :slight_smile:

Va smart, då kan du ju ha samma lösenord överallt! :laughing:

3 gillningar

Jag har inte satt mig in i det på djupet men som jag förstår det så är DeepSeek-modeller är mer effektiva än OpenAI:s GPT-modeller tack vare deras avancerade användning av förstärkningsinlärning (RL) som förbättrar resonemangsförmågan utan omfattande förfining från början. De tränas i flera steg med optimerade belöningar och har spontant utvecklat avancerade beteenden som reflektion och självkorrigering. Dessutom möjliggör distillation att även mindre modeller presterar på hög nivå, vilket gör dem kostnadseffektiva och kraftfulla för resonemangsintensiva uppgifter.

Finns mer att läsa i DeepSeeks rapport om man vill nörda ner i det på riktigt. Även Two Minute Papers genomgång DeepSeek: This New Free AI Is History In The Making! är en bra källa.

Bra för hela AI-världen med lite konkurens och ny teknik

Vad tycker du om de mindre modellerna, enligt rapporten ska redan dom vara riktigt bra. Jag har inte testat dom lokala modellerna ännu utan bara via API

2 gillningar

Det här måste svida hos OpenAI. :smile: Snacka om att Deepseek får mycket gratis reklam nu, fast det fick ju OpenAI oxå början.

qwerty

2 gillningar

Det är klart, men får väll avvakta och se hur det blir på lite längre sikt. OpenAI är lite mer etablerade om man säger så, och sen får vi inte glömma The stargate projekt

Grejen med Deepseek är väl att det är opensoruce, vem som helst kan ladda hem det och få likvärdig kapacitet som tidigare krävde ett att man tidigare betalade OpenAI. Behöver ju inte samma kraftfulla hårdvara heller så behovet av dyra datachip från Nvidia minskar.

Kör man det lokalt så laddas ju ingen data upp till något moln så att det är från Kina spelar ju ingen roll, måste väl vara drömmen för förtag som är rädda att någon ska stjäla deras data.

För oss vanliga knegare kan det ju innebära att OpenAI sänker sina priser och det är ju nice. :slight_smile:

Ja precis, en open source modell som presterar på samma nivå som gpt-o1 och som vem som helst kan köra den men mindre hårdvara är enligt mig den stora grejen.

Sen är det ny teknik som blir tillgänglig och kommer ju självklart att bidra också

Lite lustigt att det är de amerikanska sanktionerna mot Kina som har bidragit till att utveckla Deepseek enligt Omni. (låst artikeln tyvärr...) Deep Seek – detta är AI-fenomenet som skakar börsen

Här är en skärmdump från en del av artikeln.

Nu presenterades även en multimodal modell som konkurrerar med bla Dall-E3 (genererar bilder)

1 gillning

Ser inget fel i att använda OpenAI:s affärsmodell att stjäla från andra.

1 gillning