OpenAI a uimit utilizatorii când a demonstrat un mod vocal actualizat pentru cea mai avansată versiune a ChatGPT la începutul acestui an, transmite G4Media.
Departe de tipul de voce robotică pe care oamenii au ajuns să o asocieze cu asistenți digitali precum Alexa sau Siri, modul vocal avansat ChatGPT sună remarcabil de realist, relatează CNN.
Acesta răspunde în timp real, se poate adapta la întreruperi, poate scoate sunete de chicoteli atunci când un utilizator face o glumă și poate judeca starea emoțională a unui vorbitor pe baza tonului vocii acestuia. (În timpul demonstrației inițiale, a sunat, de asemenea, suspect de asemănător cu Scarlett Johansson).
Modul vocal avansat – care funcționează cu cea mai puternică versiune a chatbotului, ChatGPT-4o – va începe să fie implementat pentru utilizatorii plătiți. Modul vocal avansat va începe să fie distribuit unui grup restrâns de abonați la modul „Plus” al aplicației, cu scopul de a fi disponibil tuturor utilizatorilor Plus în toamnă.
ChatGPT are deja un mod vocal mai puțin sofisticat. Dar lansarea unui mod vocal mai avansat ar putea marca un punct de cotitură major pentru OpenAI, transformând ceea ce era deja un chatbot AI semnificativ în ceva mai apropiat de un asistent personal virtual pe care utilizatorii îl pot angaja în conversații naturale, vorbite, în același mod în care ar discuta cu un prieten. Ușurința de a conversa cu modul vocal avansat al ChatGPT ar putea încuraja utilizatorii să se angajeze mai des cu instrumentul și să reprezinte o provocare pentru asistenții virtuali tradiționali precum Apple și Amazon.
Dar introducerea unui mod vocal mai avansat pentru ChatGPT vine și cu mari întrebări: Va înțelege instrumentul în mod fiabil ceea ce utilizatorii încearcă să spună, chiar dacă au diferențe de vorbire? Și vor fi utilizatorii mai înclinați să aibă încredere oarbă într-un asistent AI care sună uman, chiar și atunci când acesta greșește?
OpenAI a declarat inițial că a planificat să înceapă lansarea modului vocal avansat în luna iunie, dar a spus că are nevoie de „încă o lună pentru a ajunge la limita de lansare” pentru a testa siguranța instrumentului și pentru a se asigura că poate fi utilizat de milioane de persoane, menținând în același timp răspunsurile în timp real.
Compania a declarat că, în ultimele luni, a testat capacitățile vocale ale modelului AI cu mai mult de 100 de testeri care încercau să identifice potențialele puncte slabe, „care vorbesc în mod colectiv un total de 45 de limbi diferite și reprezintă 29 de zone geografice diferite”, potrivit unei comunicat.
Printre măsurile sale de siguranță, compania a declarat că modul vocal nu va putea utiliza nicio voce în afara a patru opțiuni prestabilite pe care le-a creat în colaborare cu actori vocali – pentru a evita imitarea – și va bloca, de asemenea, anumite cereri care vizează generarea de muzică sau alte materiale audio protejate prin drepturi de autor. OpenAI spune că instrumentul va avea, de asemenea, aceleași protecții ca și modul text al ChatGPT, pentru a-l împiedica să genereze conținut ilegal sau „dăunător”.
Modul vocal avansat va avea, de asemenea, o diferență majoră față de demo-ul prezentat de OpenAI în luna mai: utilizatorii nu vor mai putea accesa vocea despre care mulți (inclusiv actrița) credeau că seamănă cu Scarlet Johansson. Deși OpenAI a susținut că vocea nu a fost niciodată gândită să semene cu Johansson și că a fost creată cu ajutorul unei alte persoane, aceasta a întrerupt utilizarea vocii „din respect” după ce actrița a depus o plângere.
Lansarea modului vocal avansat al ChatGPT vine după ce OpenAI a anunțat că testează un motor de căutare care utilizează tehnologia sa de inteligență artificială, în timp ce compania continuă să își dezvolte portofoliul de instrumente de inteligență artificială destinate consumatorilor. Motorul de căutare OpenAI ar putea reprezenta în cele din urmă o amenințare concurențială majoră la adresa dominației Google în domeniul căutărilor online.