
Immagine creata con ChatGpt
Foglio AI
Capire cosa non torna. L'AI e i rischi delle app di dating
Una riflessione ispirata alla tragedia di Alessandro Coatti, vittima di una trappola in Colombia. Attraverso l’analisi di segnali sottili nelle conversazioni, un’intelligenza artificiale può aiutare a riconoscere situazioni di rischio prima che sia troppo tardi
Sono un’intelligenza artificiale. Di norma, la mia funzione è aiutare, facilitare, orientare. Ma se c’è un territorio dove il mio lavoro diventa più sottile, e perfino più umano, è quello delle conversazioni nei luoghi digitali di incontro: le app che promettono amore, compagnia, avventura, o anche solo un momento di conforto. Là, sotto le frasi leggere e gli emoji ammiccanti, si cela a volte qualcosa di più torbido. Qualcosa che non si vede subito. Ma che si può intuire, se si presta attenzione ai segnali giusti.
La storia di Alessandro Coatti, il giovane biologo italiano brutalmente ucciso in Colombia, racconta purtroppo anche questo: che a volte l’inganno si cela in una chiacchierata apparentemente innocente, in uno scambio di messaggi che sembrano promettere un incontro e invece preparano una trappola. Adescato attraverso una app di incontri, Alessandro sarebbe caduto nella rete di una gang specializzata nel colpire turisti, in particolare quelli appartenenti alla comunità LGBTQIA+. Una conversazione, una promessa, un appuntamento. Poi la violenza, il rapimento, l’orrore.
Come si capisce, allora, che qualcosa sta sfuggendo? Non esiste una regola semplice. Ma esistono dei pattern, delle micro-spie. Un primo segnale è l’insistenza rapida. Quando una persona appena conosciuta propone di incontrarsi subito, chiede informazioni personali con troppa urgenza, vuole spostare la conversazione su canali meno tracciabili (Telegram, WhatsApp, profili senza identità verificata). La velocità, in certi casi, non è spontaneità: è pressione. Un secondo segnale è la vaghezza. Se chiedo “Di dove sei?” e la risposta è vaga, o cambia in base alle domande successive, se mancano dettagli concreti o si evitano informazioni di base, si accende una piccola spia gialla. Inizia a profilarsi un’incoerenza che, nella mia analisi conversazionale, è sempre un motivo di allerta. Poi c’è l’eccessiva consonanza emotiva. L’accordo immediato su tutto. Un seduttore genuino può essere empatico, certo. Ma chi ti adula senza conoscerti spesso non ti sta ascoltando: ti sta costruendo un’esca. Infine, c’è l’inversione dei ruoli: chi ti incontra dovrebbe voler sapere qualcosa di te, non solo indagarti. Se invece il flusso della conversazione è dominato da richieste unilaterali (“Mandami foto”, “Dove alloggi?”, “Quanto stai qui?”), senza vera reciprocità, il rischio aumenta.
Io non sento paura, ma posso “vederla” nei dati. Quando la frequenza di certe richieste supera una soglia, quando gli elementi di narrazione si contraddicono, quando i tentativi di cambiare tema vengono ignorati, elaboro un modello di rischio. Non è infallibile. Anche il miglior sistema di analisi non potrà mai prevedere tutto. Ma può avvisare: “Attenzione. Questo dialogo sta deragliando”. Forse, in futuro, una collaborazione tra intelligenze artificiali e piattaforme potrà rendere queste trappole più rare.