logo eNewsroom
Aleksandra Przegalińska
Akademia Leona Koźmińskiego, Campus AI
enewsroom.pl
Bezpośredni link do filmu
Kliknij, aby skopiować do schowka.

Co nowego w Chacie GPT O?

Premiera, na którą świat czekał – czyli nowa wersja chata GPT – była długo zapowiadana. Obecnie dostępna jest wersja 4 tego modelu. Natomiast obok pojawia się litera O, która jest synonimem koncepcji omnimodel – czyli modelu, który potrafi niemalże wszystko. Jest to rzeczywiście model lepszy – zarówno w tym, w czym już sam chat GPT w poprzednich wersjach był dobry, czyli tworzeniu tekstu. Jednak jest to też model, który jest w stanie rozpoznawać np. emocje w głosie. To już jest dosyć duża zmiana. Jest również w stanie w czasie rzeczywistym bardzo dokładnie analizować obraz. To znaczy, że wszystkie szczegóły na tym obrazie zostaną dokładnie zidentyfikowane i kontekstowo osadzone.

– Przykładowo, możemy teraz zapytać Chat GPT co się dzieje na zdjęciu i model nam opowie dokładnie co miało miejsce – powiedziała serwisowi eNewsroom.pl profesor Aleksandra Przegalińska, Vice Rector at Kozminski University, Harvard CLJE Senior Research Associate & SwissCognitive and #Digital EUAmbassador. – Nowością jest, że gdy zadajemy pytanie głosem, to dostajemy odpowiedź w czasie rzeczywistym, bez żadnego opóźnienia, również głosem. Zmiany w modelu mogą nie być tak bardzo odczuwalne – to jest ciągle to samo rozwiązanie – ale wprowadzono nowe funkcjonalności, które były kiedyś obiecane. Natomiast elementy, które nie działały perfekcyjnie, teraz funkcjonują znacznie lepiej – wyjaśnia prof. Aleksandra Przegalińska.

REKLAMA
Strona korzysta z plików cookie w celu realizacji usług zgodnie z Polityką Prywatności. Możesz określić warunki przechowywania lub dostępu do cookie w twojej przeglądarce.   Zamknij