Snart höjs priset på ChatGPT

Från sajten:
image

Enligt nya dokument som The New York Times tagit del av, planerar OpenAI att höja priset på ChatGPT.

Idag betalar ungefär 10 miljoner användare 20 dollar plus moms i månaden för ChatGPT Plus-versionen, men snart blir det dyrare.

Prishöjningarna i två steg:

  1. 22 dollar redan i år.
  2. 44 dollar inom fem år.


OpenAI värderas nu till hela 150 miljarder dollar
och med så pass snabba höjningar verkar det som att företaget vill stärka sin ekonomi inför framtiden. För svenskar motsvarar den första höjningen cirka 300 kronor i månaden, och den andra omkring 550–600 kronor.

Vart går smärtgränsen för månadskostnaden för de flitiga ChatGPT-användarna?

Skulle nog inte betala för det privat, men då det är ett arbetsverktyg så betalar arbetsgivaren för det.

1 gillning

Så är det och den enda formen av ChatGPT jag använder är Copilot

Den går idag på runt 250kr/mån. Lite konstigt om alla ska betala samma… ska jag som använder den till rättstavning betala samma som den som räknar kvant fysik?

Pratar vi högte kostnader så får OpenAI släppa på sina tramsiga censurer regler, idag är ju ChatGPT ganska vingklippt.

Dessa stackars arbetsgivare. :joy::joy:

Arbetsverktyg som arbetsverktyg. Vårt CAD / CAM program kostar ca 300 000 kr i licensavtal och 20k om året i uppdatering och support

Uppdaterade ett diagnosverktyg förra veckan, inte så kul men man måste ju vara med i matchen.

1 gillning

Så är det, finns många riktigt dyra program där ute. Men tycker även Adobe Acrobat är dyrt :blush:

Acrobat kör jag gratisversionen för betalversionen kostar ju huggorm och den har jag inte så stor nytta av. Däremot PhotoShop betalar jag gladeligen för.

1 gillning

Nog svårt att ta betalt av privatpersoner – nog att jag är lite AI-lat och låter den räkna ut enkel matte men man får väl bemöda sig att Googla (Google har ju det inbyggd delvis) eller bara öppna Numbers.

Har börjat använda Copilot som läxförhör. Sonen som går i 7an kan ju sina instuderingsfrågor ordagrant så man vet inte om han memorerar eller förstår det han pluggat.

Testade senast NO om växter inför hans prov, riktigt bra. Med den version som ingår i 365 Family :blush:

Fråga GPT är ju det nya Google. Har man den minsta lite mer avancerade frågan tycker jag man får 100ggr bättre svar från GPT än man får från Google. Sen behöver man ju be den om källor och ställa kontrollfrågor till den. Exempelvis om man ställer frågor kring Entra-ID så kan den svara med Azure AD, då får man fråga vad den egentligen menar etc.

1 gillning

Låter ju lite konstigt att priset skulle höjas till 550–600 kronor för privat personer, är ju mer företagstaxa. Kan New York Times fått det om bakfoten?

Jag tänkte samma. Redan 200:- i månaden känns tveksamt för mig som privatperson om jag väger nytta/kostnad.

1 gillning

Har inte använt AI så mycket, men av det jag testat upplever att man ofta får svar levererade som fakta trots att det kan innehålla felaktigheter. Är man inte insatt i ämnet sedan tidigare kan det vara svårt att värdera vad som är rätt och fel i svaret.

1 gillning

Jag använder det mest för att få reda på hur saker funkar i Azure, samt för att skapa lite mer avancerade Powershellscript och SQL Querys, så man får ju läsa igenom flera gånger innan man kör nåt och aldrig någonsin köra nåt i en produktionsmiljö innan man kört i testmiljö först. Men ibland är det uppenbara fel, då får man ställa kontrollfrågor som "Hur menar du nu? På rad X så ser det lite konstigt ut" etc.

De kanske lutar sig mer åt företagskunder i framtiden?
Man kan ju sia i att t.ex. Llama duger för de flesta privatpersoner, speciellt om 3-4 år när det kommer finnas många bra gratisalternativ.

Japp, men ändå låter den så självsäker. Jag tror vi kommer få en epidemi i texter som innehåller rena felaktigheter framöver.

1 gillning

Det känns som en konstig strategi från OpenAI att tackla konkurrensen från andra genom att höja priset till 500 kronor. Då måste de ju erbjuda något unikt som andra inte erbjuder gratis.

Om jag ser på mig själv så har hypen kring ChatGPT lagt sig lite. Jag använder det mest för att skärmdumpa och klistra in texter för att få dem översatta, upplästa och för att rätta det jag skriver.

Vill jag bara “tjöta” lite så ger nomi.ai en bättre upplevelse. De släppte bättre bildigenkänning och API-stöd igår.

Absolut. Men ofta hamnar jag bara i en loop när AI:n svarar samma felaktigheter en gång till. :blush: