La tragica fine di Aurora Tila, la tredicenne piacentina precipitata dal settimo piano della sua abitazione il 25 ottobre 2024, continua a svelare risvolti inquietanti man mano che l’inchiesta della Procura dei Minori di Bologna procede. Il focus si sposta non solo sulla figura del quindicenne accusato di omicidio, ma anche sul ruolo inedito e preoccupante che l’intelligenza artificiale ha avuto nella vita emotiva della vittima.
Le conversazioni tra Aurora e ChatGpt, acquisite agli atti, offrono uno spaccato commovente della sua fragilità e del suo bisogno di orientamento. In un’epoca in cui la comunicazione digitale spesso sostituisce quella interpersonale, Aurora si affidava a un algoritmo per dipanare i suoi dubbi sentimentali: “Secondo te dovrei lasciarlo?”, “Come faccio a distinguere se è un amore vero o un amore tossico?”. L’intelligenza artificiale, a suo modo, le aveva risposto in modo chiaro, consigliandole di interrompere la relazione.
L’accusa di omicidio è aggravata dallo stalking, un’impostazione sostenuta dal Pubblico Ministero Simone Purgato e avallata dal Giudice Chiara Alberti del Tribunale dei Minori di Bologna. Le prove raccolte dalla Procura dipingono un quadro di persecuzione implacabile: il quindicenne avrebbe tempestato Aurora con messaggi intimidatori e minacciosi, tra cui un emblematico “Il mio piano di vendetta inizia da ora, mercoledì 9 ottobre alle ore 2.50”. Questi atti persecutori, che includevano anche violenze fisiche come schiaffi e strattonamenti, avevano lo scopo di costringerla a proseguire la relazione contro la sua volontà.
Secondo l’ipotesi accusatoria, l’epilogo è stato brutale: il ragazzo avrebbe spinto Aurora giù dal balcone, non esitando a colpirla alle mani per recidere la sua disperata presa alla ringhiera. Gli avvocati Anna Ferraris e Mario Caccuri, che rappresentano la madre di Aurora, evidenziano un fenomeno generazionale: l’intelligenza artificiale è diventata un interlocutore privilegiato per gli adolescenti, spesso a scapito di figure di riferimento tradizionali come genitori e amici. Questo caso non è solo la cronaca di un delitto efferato, ma anche un campanello d’allarme sulla necessità di una riflessione più ampia sulla sicurezza e l’etica dell’uso delle intelligenze artificiali, soprattutto quando coinvolgono utenti minorenni e vulnerabili.