Det börjar dyka upp fler rapporter om att DeepSeeks beskrivning av sin träningsprocess kanske inte är helt korrekt. Det finns spekulationer om att de faktiskt har haft tillgång till stora mängder H100-GPU:er från Nvidia, trots exportförbudet till Kina. Om det stämmer kan det förklara deras snabba framsteg.
Så vitt jag vet har det ännu inte presenterats några konkreta bevis på hur träningen faktiskt gått till, det enda vi har att gå på är DeepSeeks egna uppgifter.
Men oavsett om de har haft mer beräkningskraft än de säger, så är det troligt att det fortfarande är långt ifrån den skala som OpenAI, Google eller Amazon arbetar på. Det gör ändå deras tekniska genombrott imponerande och kan driva på utvecklingen i AI-fältet. Däremot har jag svårt att se att DeepSeek skulle kunna bli en seriös konkurrent till de stora aktörerna i längden.
Amerikanska flottan inför DeepSeek förbud, känns en smula överdrivet att förbjuda all användning.
DeepSeek själva skriver i sina villkor att använder du DeepSeek på webben eller appen, alltså att DeepSeek själva hostar så sparar vi allt du matar in på servrar i Kina och gör vad vi vill med informationen. De är väldigt tydlig.
Fast eftersom det är open source kan man köra DeepSeek lokalt och då får inte Kina del av informationen, de lämnar ju inte ens rummet man sitter i.
Kort svar, japp! Jag skulle tippa på att 16GB är det minsta man behöver. Då är det dom mindre modellerna också. 14b. Ska du upp på stora grejer så 64GB eller mera i RAM.
Är det verkligen sån stor grej att Kina sparar ner allt som matas in i DeepSeek?
Sitter du på statshemligheter eller känslig företagasinformstion så har du nog rätt bra koll på vad du gör göra med informationen. OpenAI har ju en speciell företags version av ChatGPT för just känslig data och de håller på att ta fram en för amerikanska myndigheter oxå.
Ett forskarteam vid University of California har lyckats återskapa tekniken bakom Kinas AI-plattform DeepSeek – för 30 dollar.
Under ledning av doktorand Jiayi Pan använde teamet en språkmodell med tre miljarder parametrar för att replikera DeepSeek R1-Zero, inklusive dess förmåga till självgranskning och iterativ problemlösning.
För att testa sin skapelse använde forskarna det brittiska tv-speletCountdown. Genom att låta modellen lösa matematiska pussel och förbättra sina svar med belöningsinlärning, kunde forskarna visa att avancerad AI kan byggas betydligt billigare än vad techjättarna vill få oss att tro.
Berkeleys fynd pekar mot en framtid där kraftfulla AI-system kan utvecklas utan att kosta miljarder i träning. Denna nyhet bådar inte gott för Nvidias aktier, som rasade efter att kinesiska DeepSeek visade sig prestera på en nivå som liknar ChatGPT, trots att utvecklingen av den sistnämnda kostat 100 gånger mer.
Skeptiker har dock uttryckt tvivel om DeepSeeks budget på 5 miljoner dollar och menar att utvecklingskostnaderna kan vara högre. OpenAI har därefter anklagat DeepSeek för datastöld av deras AI-teknologi.
Wiz Research upptäckte en helt öppen databas hos DeepSeek, utan någon autentisering. Den innehöll hemliga nycklar, interna loggar och användares chatmeddelanden. Ett fullständigt säkerhetshaveri.
Ja, förhoppsningvis har de som sitter på dessa poster koll vad de gör. Själv väljer jag att ej sprida info/material med Ai som kan kopplas till tex en domän, ovasett vad kunden jobbar med.
En ny rapport avslöjar att den generativa AI:n DeepSeek misslyckas kapitalt med att blockera farliga frågor. Säkerhetsforskare kunde enkelt lura systemet.
Populära DeepSeek verkar ha skolkat från hela kursen i ansvarsfull AI-generering. När säkerhetsexperter testade 50 olika metoder för att kringgå dess skydd, föll systemet för varenda en.
Genom enkla manipulationer, som att låtsas vara en karaktär i en film, kunde forskarna få AI:n att beskriva explosiva recept. Även tekniska säkerhetsåtgärder visade sig svaga – AI:n kunde exempelvis generera SQL-kod, ett programmeringsspråk som används för att hantera databaser, och därmed vägleda användare i att olagligt extrahera skyddad information.