Kan du huske stemmedemoen til GPT-4o fra OpenAI fra et par måneder siden, der rystede verden med sin lighed med et menneske? Du ved, den, der kunne få dig til at glemme et stykke tid, at du talte med en AI og endda mindede mange mennesker om Scarlett Johanssons AI-karakter fra filmen Her (og også mødte kritik for det samme).
OpenAI begynder endelig at rulle det ud i Alpha til et lille antal ChatGPT Plus-brugere, som virksomheden delte den X. Mens virksomheden oprindeligt havde planer om at starte udrulningen i juni, blev den forsinket af sikkerhedsmæssige årsager og for at sikre, at det kunne “nå [OpenAI’s] bar for at starte”. Som sådan havde virksomheden travlt med at forbedre modellen med et team af eksterne røde teamere, så det kunne opdage og afvise bestemt indhold.
Vi begynder at udrulle avanceret stemmetilstand til en lille gruppe ChatGPT Plus-brugere. Avanceret stemmetilstand tilbyder mere naturlige samtaler i realtid, giver dig mulighed for at afbryde når som helst og fornemmer og reagerer på dine følelser. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) 30. juli 2024
Nu begynder nogle betalende brugere at få adgang til modellen i deres ChatGPT-app, men lige nu vil adgangen til alfaversionen forblive lille. Virksomheden siger, at det planlægger gradvist at udrulle adgang til flere brugere og bringe den til alle betalende brugere senere på efteråret.
Der ser ikke ud til at være nogen måde, du kan anmode om adgang til den avancerede stemmetilstand på. Hvis du er på listen over det lille antal brugere, der får adgang til alfa, vil du modtage en e-mail med instruktioner samt en notifikation i din ChatGPT-app for at prøve Voice Mode.
Den avancerede stemmetilstand vil kun være i stand til at tale i de 4 forudindstillede stemmer – Juniper, Amber, Cove og Breeze. Det er bemærkelsesværdigt, at OpenAI fjernede Sky – den, der lød som Scarlett Johansson kort efter, at demoen blev udgivet ved forårsbegivenheden, og skuespilleren sendte breve til virksomheden og spurgte, hvordan stemmen blev lavet (som OpenAI tilsyneladende aldrig reagerede på). Sky er stadig ikke en del af listen, ser det ud til.
ChatGPT-4o vil heller ikke være i stand til at levere udgange med nogen anden stemme end dem i forudindstillingen for at beskytte brugernes privatliv. Der er også rækværk på plads for at blokere anmodninger om voldeligt eller ophavsretligt beskyttet indhold.
Hvis du har adgang til den avancerede stemmetilstand i din ChatGPT-app, så fortsæt og prøv det. Selvom det ikke vil være i stand til alt det, der vises i demoerne, før det også får dets visionsevner, virker det stadig ret imponerende, ifølge nogle videoer, der deles af brugere, der har adgang.
Skriv et svar