“Playtech ha deciso di investire sull’Intelligenza Artificiale 7 anni fa, quando chtgpt non esisteva nemmeno. Questo tema sta guadagnando sempre più popolarità ed è stata anche inserita nella nuova legge. L’industria del gioco può usare questi strumenti, ma deve farlo in modo davvero intelligente. Innanzitutto la si può usare per il gioco responsabile, ma fissare, ad esempio, lo stesso limite per tutti i giocatori è sbagliato perché si pone alla base che tutti i consumatori siano uguali, ma non è così. Gli strumenti tradizionali di gioco responsabile come l’autoesclusione e i limiti di deposito sono ancora importanti, ma l’IA permette approcci più personalizzati e proattivi”. È quanto ha detto il Chief Policy Officer di Playtech, Francesco Rodano, durante il suo intervento al panel “What is New? Is AI taking over, or the people using AI. – True or False?” all’European Association for the Study of Gambling.
“L’Intelligenza Artificiale può certamente aiutare a prevedere comportamenti problematici. L’unica cosa è che non si è ancora capita la modalità corretta con cui intervenire. Sicuramente la personalizzazione dell’intervento potrebbe avere successo, ma di certo c’è ancora bisogno di studiare nuove soluzioni. Playtech, come operatore, è disposta a mettere i dati dei nostri clienti nelle mani dell’accademia per riuscire a trovare le best practices da utilizzare. Le società di gioco al momento non condividono molto, ma questi dati sono fondamentali per capire come muoverci per andare sempre di più verso il.gioco responsabile”, ha continuato.
“L’Intelligenza artificiale ci dà molte opportunità: ci fa capire quali messaggi sono più efficaci, può fornirci chatbot personalizzati sui diversi giocatori. Per fare tutto ciò c’è bisogno che si conoscano i dati così da poter avere una traccia su cui intervenire”.
“In Italia, si sta registrando il passaggio dall’uso di limiti e soglie generici a un’analisi più sofisticata basata sull’IA. L’Intelligenza Artificiale può elaborare grandi quantità di dati per estrarre preziose informazioni sul comportamento dei giocatori. I modelli di apprendimento automatico sono addestrati per identificare i giocatori potenzialmente a rischio di sviluppare problemi di gioco. L’aspetto più importante è fornire informazioni sui rischi in fase iniziale, consentendo interventi tempestivi. L’IA permette interazioni personalizzate e suggerimenti che possono influenzare positivamente il comportamento del giocatore. L’obiettivo è la prevenzione attraverso l’individuazione precoce e il supporto personalizzato, piuttosto che reagire solo ai segni evidenti di problemi di gioco”, ha continuato.
“Siamo tutti d’accordo che le ricerche accademiche indipendenti sono importanti per capire le potenzialità di questi strumenti e fornirci nuove prospettive. Del gioco responsabile si parla solo da 10 anni e negli ultimi 2 anni si è passati ad usare il termine safer gambling, considerata una voce più coerente con l’obiettivo che si cerca di raggiungere. C’è da dire che le società non fanno molto se non sono costrette dagli operatori. Ci sono alcune società che si stanno muovendo praticamente, ma sono poche. Si deve capire che i consumatori non sono infastiditi dai messaggi di gioco responsabile, anzi si “affezionano” ancora di più all’operatore e acquistano fiducia. Al momento questo non è stato ancora compreso dall’industria che pensa ancora che queste pratiche possano danneggiare il business allontanando potenziali consumatori”, ha detto.
“Concludo dicendo che questi strumenti possono essere utilizzati anche in modo non etico. Ad esempio, l’Intelligenza Artificiale può essere utilizzata per trovare i giocatori problematici e targettizzarli con campagne di marketing più aggressive”, ha concluso. ac/AGIMEG