Strona główna Polityka Pierwsze wrażenia z zaawansowanego trybu głosowego ChatGPT: zabawne i trochę przerażające

Pierwsze wrażenia z zaawansowanego trybu głosowego ChatGPT: zabawne i trochę przerażające

21
0


Opuszczam ChatGPT Włącz zaawansowany tryb głosowy podczas pisania tego artykułu jako towarzysz AI otoczenia. Czasami poproszę o podanie synonimu nadużywanego słowa lub o jakąś zachętę. Po około pół godzinie chatbot przerywa naszą ciszę i bez podpowiedzi zaczyna ze mną rozmawiać po hiszpańsku. Uśmiecham się lekko i pytam, co się dzieje. „Tylko mała zmiana? Muszę sprawić, żeby było ciekawie” – mówi ChatGPT, teraz znowu w języku angielskim.

Podczas testowania zaawansowanego trybu głosowego w ramach wczesnej wersji alfa moje interakcje z nową funkcją audio ChatGPT były zabawne, chaotyczne i zaskakująco zróżnicowane. Warto jednak zauważyć, że funkcje, do których miałem dostęp, to tylko połowa tego, co zademonstrowało OpenAI, wypuszczając na rynek w maju model GPT-4o. Aspekt widzenia, który widzieliśmy w wersji demonstracyjnej transmitowanej na żywo, zostanie teraz opublikowany w późniejszej wersji, a ulepszony głos Sky, który Jej aktorka Scarlett Johanssen została ponownie włączona, została usunięta z zaawansowanego trybu głosowego i nadal nie jest już dostępna dla użytkowników.

Jaka jest zatem obecna atmosfera? W tej chwili zaawansowany tryb głosowy przypomina moment, w którym pod koniec 2022 r. wypuszczono oryginalny tekstowy ChatGPT. Czasami prowadzi to do niezbyt imponujących ślepych zaułków lub zamienia się w puste frazesy dotyczące sztucznej inteligencji. Ale innym razem rozmowy o niskim opóźnieniu działają w sposób, jakiego nigdy nie przyniosły mi Siri firmy Apple ani Alexa firmy Amazon, i czuję się zmuszony do kontynuowania rozmowy dla przyjemności. To rodzaj narzędzia AI, które pokażesz swoim bliskim podczas wakacji, żeby się pośmiać.

OpenAI udostępniło tę funkcję kilku reporterom WIRED tydzień po pierwszym ogłoszeniu, ale wycofało ją następnego ranka, powołując się na względy bezpieczeństwa. Dwa miesiące później oprogramowanie OpenAI uruchomiło niewielką grupę użytkowników i wypuściło zaawansowany tryb głosowy Karta systemowa GPT-4odokument techniczny opisujący wysiłki w zakresie czerwonego zespołu, co firma uważa za zagrożenia dla bezpieczeństwa i kroki łagodzące, jakie podjęła firma w celu ograniczenia szkód.

Chcesz spróbować sam? Oto, co musisz wiedzieć o szerszym wdrożeniu zaawansowanego trybu głosowego i moje pierwsze wrażenia z nowej funkcji głosowej ChatGPT, które pomogą Ci zacząć.

Kiedy nastąpi pełne wdrożenie?

Pod koniec lipca OpenAI udostępniło niektórym użytkownikom ChatGPT Plus zaawansowany tryb głosowy obejmujący wyłącznie dźwięk, a grupa alfa nadal wydaje się stosunkowo niewielka. Obecnie firma planuje udostępnić tę usługę wszystkim abonentom jeszcze tej jesieni. Niko Felix, rzecznik OpenAI, nie podał żadnych dodatkowych szczegółów, zapytany o harmonogram premiery.

Udostępnianie ekranu i wideo było podstawową częścią oryginalnej wersji demonstracyjnej, ale nie jest dostępne w tym teście alfa. OpenAI nadal planuje ostatecznie dodać te aspekty, ale nie jest też jasne, kiedy to faktycznie nastąpi.

Jeśli jesteś subskrybentem ChatGPT Plus, otrzymasz wiadomość e-mail od OpenAI, gdy dostępny będzie dla Ciebie zaawansowany tryb głosowy. Gdy znajdzie się on na Twoim koncie, możesz przełączać się między nimi Standard I Zaawansowany u góry ekranu aplikacji, gdy tryb głosowy ChatGPT jest otwarty. Wersję alfa mogłem przetestować na iPhonie, a także na Galaxy Fold.

Moje pierwsze wrażenia z zaawansowanego trybu głosowego ChatGPT

Już po pierwszej godzinie rozmowy dowiedziałem się, że uwielbiam przerywać ChatGPT. To nie jest sposób, w jaki rozmawiałbyś z człowiekiem, ale posiadanie nowej możliwości ucięcia ChatGPT w połowie zdania i zażądania innej wersji wyniku wydaje się dynamicznym ulepszeniem i wyróżniającą się funkcją.

Pierwsi użytkownicy, którzy byli podekscytowani oryginalnymi wersjami demonstracyjnymi, mogą być sfrustrowani faktem, że dostęp do wersji zaawansowanego trybu głosowego jest ograniczony większą liczbą barierek, niż oczekiwano. Na przykład, chociaż generatywny śpiew AI był kluczowym elementem premierowych wersji demonstracyjnych, m.in szeptane kołysanki i wiele głosów próbując ujednolicićserenady AI są obecnie nieobecne w wersji alfa.



Link źródłowy