Enligt nya dokument som The New York Times tagit del av, planerar OpenAI att höja priset på ChatGPT.
Idag betalar ungefär 10 miljoner användare 20 dollar plus moms i månaden för ChatGPT Plus-versionen, men snart blir det dyrare.
Prishöjningarna i två steg:
22 dollar redan i år.
44 dollar inom fem år.
OpenAI värderas nu till hela 150 miljarder dollar och med så pass snabba höjningar verkar det som att företaget vill stärka sin ekonomi inför framtiden. För svenskar motsvarar den första höjningen cirka 300 kronor i månaden, och den andra omkring 550–600 kronor.
Vart går smärtgränsen för månadskostnaden för de flitiga ChatGPT-användarna?
Den går idag på runt 250kr/mån. Lite konstigt om alla ska betala samma… ska jag som använder den till rättstavning betala samma som den som räknar kvant fysik?
Pratar vi högte kostnader så får OpenAI släppa på sina tramsiga censurer regler, idag är ju ChatGPT ganska vingklippt.
Acrobat kör jag gratisversionen för betalversionen kostar ju huggorm och den har jag inte så stor nytta av. Däremot PhotoShop betalar jag gladeligen för.
Nog svårt att ta betalt av privatpersoner – nog att jag är lite AI-lat och låter den räkna ut enkel matte men man får väl bemöda sig att Googla (Google har ju det inbyggd delvis) eller bara öppna Numbers.
Har börjat använda Copilot som läxförhör. Sonen som går i 7an kan ju sina instuderingsfrågor ordagrant så man vet inte om han memorerar eller förstår det han pluggat.
Testade senast NO om växter inför hans prov, riktigt bra. Med den version som ingår i 365 Family
Fråga GPT är ju det nya Google. Har man den minsta lite mer avancerade frågan tycker jag man får 100ggr bättre svar från GPT än man får från Google. Sen behöver man ju be den om källor och ställa kontrollfrågor till den. Exempelvis om man ställer frågor kring Entra-ID så kan den svara med Azure AD, då får man fråga vad den egentligen menar etc.
Låter ju lite konstigt att priset skulle höjas till 550–600 kronor för privat personer, är ju mer företagstaxa. Kan New York Times fått det om bakfoten?
Har inte använt AI så mycket, men av det jag testat upplever att man ofta får svar levererade som fakta trots att det kan innehålla felaktigheter. Är man inte insatt i ämnet sedan tidigare kan det vara svårt att värdera vad som är rätt och fel i svaret.
Jag använder det mest för att få reda på hur saker funkar i Azure, samt för att skapa lite mer avancerade Powershellscript och SQL Querys, så man får ju läsa igenom flera gånger innan man kör nåt och aldrig någonsin köra nåt i en produktionsmiljö innan man kört i testmiljö först. Men ibland är det uppenbara fel, då får man ställa kontrollfrågor som "Hur menar du nu? På rad X så ser det lite konstigt ut" etc.
De kanske lutar sig mer åt företagskunder i framtiden?
Man kan ju sia i att t.ex. Llama duger för de flesta privatpersoner, speciellt om 3-4 år när det kommer finnas många bra gratisalternativ.
Det känns som en konstig strategi från OpenAI att tackla konkurrensen från andra genom att höja priset till 500 kronor. Då måste de ju erbjuda något unikt som andra inte erbjuder gratis.
Om jag ser på mig själv så har hypen kring ChatGPT lagt sig lite. Jag använder det mest för att skärmdumpa och klistra in texter för att få dem översatta, upplästa och för att rätta det jag skriver.
Vill jag bara “tjöta” lite så ger nomi.ai en bättre upplevelse. De släppte bättre bildigenkänning och API-stöd igår.