W ciągu ostatnich dwóch lat Sony AI wytrenowało system komputerowy do grania w Gran Turismo Sport, popularną i realistyczną grę wyścigową firmy Polyphony Digital, i pokonało kilku najlepszych na świecie zawodników – poinformowało w środę Sony.
Sztuczna inteligencja, nazwana GT Sophy, pokonała najlepszych ludzi tylko w próbach czasowych, gdy na torze nie było innych samochodów podczas lipcowych zawodów. Ale w październiku GT Sophy pokonała ludzi nawet w tłumie wirtualnych samochodów wyścigowych.
GT Sophy to najnowszy eksperyment pokazujący, że AI może zwyciężać w grach takich jak szachy i Go, które przez długi czas uważano za domenę ludzkiej inteligencji. AI pokonała również ludzi w klasycznych grach wideo na Atari oraz w strategicznej grze czasu rzeczywistego Starcraft.
Obecnie AI odnosi się ogólnie do procesu programowania komputerów przy użyciu technologii znanej jako sieci neuronowe, które naśladują sposób działania ludzkich mózgów. Osiągnięcie Sony jest na tyle godne uwagi, że doczekało się artykułu w prestiżowym czasopiśmie Nature.
Gry wideo o wyścigach samochodowych, takie jak Gran Turismo, oferują otwarte wybory taktyczne oraz symulowane zasady fizyki. GT Sophy wybrała nowe sposoby podejścia do nich, powiedział jeden z ludzkich zawodników.
„AI prowadzi samochód w sposób, którego nigdy byśmy nie wymyślili”, powiedział Takuma Miyazono, który wygrał trzy wyzwania w Światowych Finałach FIA Gran Turismo 2020, wypowiadając się na wideo. Powiedział, że taktyka GT Sophy nabrała sensu, gdy zobaczył, jak jeździ.
