Dowodzona przez Sama Altmana firma OpenAI podzieliła się wczoraj garścią przełomowych ogłoszeń dot. jej obecnych działań. Przedsiębiorstwo stojące za słynnym chatbotem zaprezentowało jego najnowszą wersję - GPT-4o. Ponadto przekazano szczegóły w kwestii integracji ich sztucznej inteligencji z urządzeniami innego giganta rynku technologicznego, czyli Apple.
- Nowy model od pochodzącej z San Francisco firmy będącej gigantem rynku AI - GPT-4o - potrafi przetwarzać w sekundę obraz oraz dźwięki, co sprawia, że z chatbotem możemy już rozmawiać, niczym z żywym człowiekiem,
- OpenAI poinformowało także, że ich technologia generatywnej sztucznej inteligencji pojawi się niebawem na urządzeniach mobilnych firmy Apple, po wdrożeniu najnowszej aktualizacji systemu iOS 18.
Nowa wersja ChatGPT robi imponujące wrażenie
W dniu 13 maja miało miejsce ważne wydarzenie związane z rozwojem generatywnej
sztucznej inteligencji. Chodzi o
OpenAI Spring Uptade, czyli prezentację nowego modelu chatbota od twórców słynnego
ChatGPT, czyli firmy
OpenAI. W jej trakcie dyrektorka ds. technicznego tej firmy -
Mira Murati - przedstawiła światu ich nowe dzieło -
GPT-4o.
Rewolucyjną zmianą w działaniu flagowego produktu tego przedsiębiorstwa okazała
funkcja przetwarzania mowy na żywo. Co za tym idzie, proces transkrypcji wydawanych botowi poleceń zaczyna być zbędny, bowiem wystarczy już nam sama mowa i... obraz.
Tak,
sztuczna inteligencja od OpenAI może już nas widzieć za pośrednictwem kamery i przetwarzać ten obraz w moment. Oznacza to więc, że będziemy mogli chatbotowi pokazać fizyczny przedmiot, by np. ten znalazł nam jego odpowiednik w sieci, byśmy mogli go zamówić za pośrednictwem platformy e-commerce.
Poniżej mamy
przykład tego, jak GPT-4o mówi użytkownikowi, co widzi okiem kamery w jego telefonie.
//twitter.com/heyBarsee/status/1790253507427156126
Kolejnym z ulepszeń, jaki zaprezentowano podczas wczorajszej konferencji, była możliwość wskazania, jakim głosem ma mówić do nas ChatGPT. Na potrzeby prezentacji poproszono AI, by ta wygenerowała opowieść zawierającą różne wersje głosu.
Poniżej natomiast mamy prezentację tego,
jak świetnie AI radzi sobie z tłumaczeniem mowy na inne języki.
//twitter.com/FluentInFinance/status/1790255069150998544
OpenAI chwali swój nowy produkt, że czas jego reakcji na sygnały audio to jedynie 232 milisekund. Wychodzi na to, że AI potrafi odbierać bodźcie równie szybko, co mózg człowieka.
No dobrze, to teraz najważniejsze pytanie:
Kiedy będziemy mogli skorzystać z GPT-4o? Odpowiedź powinna być satysfakcjonująca dla wszystkich użytkowników, bowiem już teraz można przetestować najnowszą wersję, nawet w ramach darmowego pakietu.
Natomiast osoby posiadające wykupiony wariant Plus mogą cieszyć się nawet 5-krotnie większymi limitami przetwarzania danych przez AI.
OpenAI zapowiedziało, że w ciągu najbliższych tygodni
tryb głosowy GPT-4o pojawi się także w wersji alfa ChatGPT Plus.
OpenAI łączy siły z Apple
Kolejnym przełomowym ogłoszeniem podczas wczorajszej konferencji było to odnośnie integracji systemu OpenAI z firmą Apple.
Niebawem na rynku pojawi się
aplikacja dedykowana subskrybentom ChatGPT Plus, która będzie działać bezpośrednio na ich komputerach Mac. Korzystanie z pomocy chatbota będzie jeszcze bardziej ułatwione, bowiem wystarczy użyć skrótu klawiszowego Opcja + Spacja, by zacząć wydawać polecenia
sztucznej inteligencji.
Co więcej, umowa o współpracy między tymi dwoma gigantami technologicznymi mówi o tym, że największa aktualizacja iPhone’a w historii, dotycząca systemu
iOS 18, będzie kolejnym rewolucyjnym krokiem w rozwoju AI.
//twitter.com/bindureddy/status/1789905880193851725
Znana dziś wszystkim
Siri, czyli asystent użytkowników telefonów z logiem jabłka, przejdzie totalną metamorfozę. Wszystko właśnie za sprawą integracji z ChatGPT. W czerwcu powinny pojawić się kolejne informacje dot. fuzji obu technologii.
Komentarze