GPT-4 jest już dostępny dla płacących użytkowników OpenAI poprzez ChatGPT Plus (z limitem użycia), a deweloperzy mogą zapisać się na listę oczekujących na dostęp do API. GPT-4 może generować tekst oraz rozpoznawać obraz i tekst – co jest ulepszeniem w stosunku do GPT-3.5, jego poprzednika, który akceptował tylko tekst – i w profesjonalnych i akademickich testach porównawczych osiąga wyniki „na poziomie człowieka”. Przykładowo GPT-4 zaliczył symulowany egzamin adwokacki z wynikiem osiągalnym dla około 10% najlepszych uczestników. Dla porównania, wynik GPT-3.5 był o około 10% niższy. Wielomodalność wersji GPT-4 sprawia, że sztuczna inteligencja może wchodzić w interakcje ze zdjęciami i filmami, co pozwala np. na łatwe rozpoznanie aktora, którego nazwiska zapomnieliśmy. Nowy model sztucznej inteligencji potrafi również tworzyć grafiki i obrazy na podstawie dostarczonego opisu, a także tabele na podstawie naszych danych. ChatGPT-4 zdołał też udowodnić swoją przydatność wykrywając lukę w smart kontrakcie Ethereum.
OpenAI wprowadza wielomodalną sztuczną inteligencję GPT-4
Firma OpenAI udostępniła nowy udoskonalony model sztucznej inteligencji, który rozpoznaje obrazy i teksty. Firma określa model GPT-4 „najnowszym kamieniem milowym w swoich działaniach na rzecz skalowania uczenia głębokiego”.
GPT-4 jest już dostępny dla płacących użytkowników OpenAI poprzez ChatGPT Plus (z limitem użycia), a deweloperzy mogą zapisać się na listę oczekujących na dostęp do API. GPT-4 może generować tekst oraz rozpoznawać obraz i tekst – co jest ulepszeniem w stosunku do GPT-3.5, jego poprzednika, który akceptował tylko tekst – i w profesjonalnych i akademickich testach porównawczych osiąga wyniki „na poziomie człowieka”. Przykładowo GPT-4 zaliczył symulowany egzamin adwokacki z wynikiem osiągalnym dla około 10% najlepszych uczestników. Dla porównania, wynik GPT-3.5 był o około 10% niższy. Wielomodalność wersji GPT-4 sprawia, że sztuczna inteligencja może wchodzić w interakcje ze zdjęciami i filmami, co pozwala np. na łatwe rozpoznanie aktora, którego nazwiska zapomnieliśmy. Nowy model sztucznej inteligencji potrafi również tworzyć grafiki i obrazy na podstawie dostarczonego opisu, a także tabele na podstawie naszych danych. ChatGPT-4 zdołał też udowodnić swoją przydatność wykrywając lukę w smart kontrakcie Ethereum.
GPT-4 jest już dostępny dla płacących użytkowników OpenAI poprzez ChatGPT Plus (z limitem użycia), a deweloperzy mogą zapisać się na listę oczekujących na dostęp do API. GPT-4 może generować tekst oraz rozpoznawać obraz i tekst – co jest ulepszeniem w stosunku do GPT-3.5, jego poprzednika, który akceptował tylko tekst – i w profesjonalnych i akademickich testach porównawczych osiąga wyniki „na poziomie człowieka”. Przykładowo GPT-4 zaliczył symulowany egzamin adwokacki z wynikiem osiągalnym dla około 10% najlepszych uczestników. Dla porównania, wynik GPT-3.5 był o około 10% niższy. Wielomodalność wersji GPT-4 sprawia, że sztuczna inteligencja może wchodzić w interakcje ze zdjęciami i filmami, co pozwala np. na łatwe rozpoznanie aktora, którego nazwiska zapomnieliśmy. Nowy model sztucznej inteligencji potrafi również tworzyć grafiki i obrazy na podstawie dostarczonego opisu, a także tabele na podstawie naszych danych. ChatGPT-4 zdołał też udowodnić swoją przydatność wykrywając lukę w smart kontrakcie Ethereum.
Komentarze