Quando parliamo di videogiochi e di correlazione tra giocatore e avventura i casi sono pochi.

In genere è il giocatore che impara durante il corso della sua avventura e si migliora per riuscire ad avvantaggiarsi in ogni situazione.

 

Se prendiamo per esempio gli NPC dei videogiochi, queste entità sono sempre state programmate utilizzando dei specifici set di informazioni, istruite dagli sviluppatori ad eseguire delle azioni predefinite in vista delle loro eventuali interazioni con il protagonista.

 

Circa un’anno fa Unity ha annunciato un progetto denominato Unity Machine Learning Agents. Software open source che funge da tramite tra gli engine di gioco e il mondo dell’apprendimento meccanico. Questo particolare game engine ha collaborato con piattaforme di machine learning come la TensorFlow di Google.

Utilizzando questo tipo di engine è stato possibile migliorare notevolmente l’intelligenza artificiale degli individui virtuali tra cui i sopracitati NPC. Danny Lange, vice presidente della sezione IA e machine learning ammette che attraverso un sistema di prove ed errori è possibile anche per l’intelligenza artificiale di imparare e adottare strategie di azione sempre nuove. Questo permetterà alla IA di raggiungere livelli di realismo e profondità superiori a qualsiasi progettazione da parte degli sviluppatori. Il focus di questo tipo di sviluppo è una branca del machine learning che si basa sull’apprendimento per rinforzo.

Un sistema ad angolazioni multiple permette di analizzare meglio l’ambiente dando informazioni al carro armato sull’ambiente che lo circonda in tempo reale.

 

Durante questo anno di sviluppo e di testing questa metodologia è stata sperimentata anche nel campo dei robot intelligenti e nell’industria automotive. Anche Microsoft ha preso parte in questo progetto, trasferendo il suo simulatore AirSim in Unity per poter sperimentare l’apprendimento nel campo dei veicoli a conduzione autonoma.

Le risorse grafiche e fisiche raggiunte oggi dagli engine dei videogiochi come Unity hanno contribuito a creare ecosistemi virtuali che si rivelano ottimi campi di sperimentazione per simulare queste situazioni con un realismo quasi pari alla realtà. Un esempio è il coefficiente di aderenza tra pneumatici e tipo di pavimentazione stradale oppure l’illuminazione ambientale delle strade.

 

Utilizzando un procedimento chiamato Rendering Procedurale, l’engine può analizzare in tempo reale chilometri e chilometri illimitati di fotografie di strade. Mentre il software di apprendimento analizza video di giochi, riuscendo ad interpretare ed imparare ad utilizzare correttamente quello che vede.

A seguito di questo anno di sperimentazione, Unity circa un mese fa ha annunciato un’altra partnership,questa volta con DeepMind, azienda britannica leader nel campo dell’intelligenza artificiale.

La compagnia da alcuni anni acquisita da Google si occupa dello studio e della creazione di algoritmi autoimparanti simili al cervello umano. Ciò richiede uno studio e combinazione meticolose di Deep learning e reti neurali. Famoso il traguardo raggiunto nel 2016 quando un software di loro creazione ha battuto un giocatore professionista a GO, gioco da tavolo cinese dalle semplici regole ma che richiede una capacità tattica elevata.

 

Questo tipo di collaborazioni devono farci fermare a riflettere sui passi da gigante effettuati dall’industria di giochi e videogiochi. In un’epoca dove la tecnologia scorre praticamente in qualsiasi tipo di strumento o oggetto che utilizziamo giornalmente. Sperimentare in realtà videoludiche consente di avere un “playground” fortemente adattabile alle situazioni e aiuta a sperimentare tutti quei casi che sarebbero difficili da riprodurre nella realtà. Siamo in forte attesa e interessati agli obbiettivi che verranno raggiunti da queste collaborazioni.