L’evoluzione tecnologica e la penetrazione sempre più ampia dell’Intelligenza Artificiale nelle attività umane stanno aprendo nuove frontiere nel campo dell’intelligence e dell’attività investigativa, semplificando e rendendo più rapide molte delle operazioni di indagine.
I nuovi strumenti a disposizione consentono di analizzare dati, effettuare ricerche e ottenere risposte in tempi molto più rapidi, con un effetto determinante per il buon esito delle indagini.
L’Intelligenza Artificiale si pone quindi come un investigatore aggiunto a supporto del professionista e non in sostituzione di esso.
L’impatto della tecnologia potrebbe però, soprattutto in futuro, introdurre dubbi etici sul funzionamento di questi strumenti. Gli algoritmi sono sì creazione dell’ingegno umano ma quando evolvono verso l’Intelligenza Artificiale viene meno la capacità di analisi e di giudizio critico tipica degli esseri umani. Bias, errori di valutazione, analisi approssimative possono infatti determinare risultati distorti. Per tale motivo, un intervento di analisi umana è indispensabile.
Dogma S.p.A., agenzia investigativa all’avanguardia, ha dato vita a InvestigationTech che definisce un nuovo paradigma nel settore per sfruttare le più avanzate tecnologie, tra cui l’Intelligenza Artificiale, l’analisi predittiva e strumenti di cybersecurity. Questo approccio rappresenta la convergenza tra le moderne soluzioni tecnologiche e le pratiche investigative tradizionali.
L’intelligence investigativa si fonda oggi su un mix di attività tradizionali e nuove modalità rese possibili dall’evoluzione tecnologica e dall’esistenza della rete globale.
L’acquisizione di informazioni in presa diretta attraverso le relazioni personali, i colloqui e altre metodologie di rapporto con gli esseri umani – che viene definita Human Intelligence (HumInt) – è stata affiancata prima dall’OSINT (Open Source Intelligence) che consente di reperire e confrontare informazioni attingendo a quell’enorme bacino rappresentato da Internet e dagli archivi digitali. Negli ultimi vent’anni, con l’avvento dei social network si è aggiunta la SOCMINT (Social Media Intelligence) che si concentra sugli account e sui profili presenti sui media sociali (Faceboo, Twitter/X, Instagram, TikTok, Youtube, ecc.).
Un’indagine approfondita ed efficace potrà quindi basarsi sulla contestuale combinazione di questi strumenti per ricercare tutte le informazioni e i dati da analizzare.
Un ulteriore impulso viene ora offerto dall’Intelligenza Artificiale e in particolare dai LLM, i Large Language Models, modelli appunto di Intelligenza Artificiale avanzati progettati per comprendere e generare linguaggio naturale. Essi sono sostanzialmente basati su reti neurali profonde e vengono addestrati (machine learning) su enormi quantità di dati testuali.
La tecnologia alla base di strumenti ormai pienamente entrati nella quotidianità di molti, come ChatGPT, Gemini, Claude, Copilot e DeepSeek, consente quindi – nel campo investigativo – di processare un’enorme mole di dati in pochi istanti, ottenendo risposte sempre più efficaci grazie alla capacità della macchina di apprendere sulla base degli input umani.
L’ecosistema in cui viviamo e operiamo diventa quindi sempre più “phygital”, il fisico si unisce al digitale realizzando un’integrazione tra il mondo reale e quello virtuale.
Ognuno di noi vive quindi un’esistenza fisica, affiancata – spesso senza possibilità di distinzione tra i due mondi – da un’esistenza digitale, derivante dalla nostra presenza sui social e nella rete globale.
L’indagine su un soggetto non può quindi prescindere da un’integrazione tra fisico e digitale. Questo perché ogni giorno, nelle nostre attività – sia lavorative, sia ludiche – lasciamo tracce digitali del nostro “passaggio”. I profili social raccontano cosa facciamo, cosa pensiamo, quali sono le nostre abitudini e le nostre inclinazioni. La registrazione a profili, pagine, applicazioni fornisce dati – spesso personali – ai provider di servizi. La geolocalizzazione consente di sapere dove siamo e come ci muoviamo.
Tutte queste tracce possono rivelarsi molto utili per un’attività di indagine e per comporre un profilo personologico della persona.
Pensiamo, ad esempio, ad un’indagine aziendale per accertare che un dipendente sta abusando dei permessi di lavoro (ex legge 104, congedi, permessi sindacali, ecc.) per svolgere altre attività lavorative o ludiche. Combinando le informazioni acquisite mediante tecniche tradizionali come il pedinamento e l’appostamento con l’analisi dei profili social è possibile ottenere la prova dell’abuso.
Anche nel caso di minacce o atti persecutori provenienti da profili falsi o da ignoti è possibile condurre un’indagine in chiave “phygital”, analizzando linguaggi, modalità di comportamento, stile dei messaggi per restringere il campo dei possibili sospettati e arrivare all’individuazione del responsabile.
Puoi approfondire nell'articolo dedicato: Cos'è il phygital: vantaggi e rischi per le aziende e le persone
I Large Language Models sono un tipo di Intelligenza Artificiale progettato per comprendere e generare linguaggio naturale. Vengono solitamente addestrati su grandi dataset con miliardi di parole e frasi provenienti da libri, articoli, siti web e altre fonti testuali. L’architettura utilizza modelli di deep learning chiamati transformer che consentono di analizzare il contesto delle parole e generare risposte più naturali.
Attraverso il Natural Language Processing (NLP) possono interpretare domande, riassumere testi e tradurre lingue.
Nel campo dell’investigazione privata i LLM possono analizzare grandi volumi di dati esaminando rapidamente documenti legali, rapporti investigativi e comunicazioni digitali per individuare connessioni e pattern utili alle indagini (si veda l’esempio poco più sopra sugli atti persecutori e i messaggi minatori).
Questi tool possono essere impiegati anche per analizzare i social media, i forum per cercare informazioni rilevanti, per filtrare e organizzare dati provenienti da fonti diverse.
Infine, possono, debitamente guidati da un operatore umano, contribuire a redigere i rapporti e i dossier investigativi, organizzando in maniera logica le prove raccolte.
L’evoluzione tecnologica, come sempre accade, ha fornito nuovi strumenti anche ai cybercriminali. È il caso dei deepfake, contenuti audiovisivi manipolati attraverso l’AI e estremamente realistici, nei quali i volti e le voci delle persone vengono alterati o sostituiti.
È quanto è successo a Hong Kong dove una multinazionale britannica con sede nel paese asiatico è stata vittima di una truffa che ha sfruttato al meglio la tecnologia deepfake. Grazie a questa, i cybercriminali sono riusciti a impersonare il direttore finanziario e altri dirigenti durante una videochiamata, convincendo un dipendente a trasferire 25 milioni di dollari su conti bancari controllati da loro.
I deepfake possono quindi essere usati per indurre in errore le persone, ottenendo la loro fiducia al fine di sottrarre somme di denaro o dati sensibili.
L’avvento di queste nuove tecnologie pone quindi criticità legate all’affidabilità e credibilità delle fonti da cui provengono le fake news. Il monitoraggio attento, l’analisi attraverso la stessa AI affiancata ai tradizionali strumenti di intelligence, la definizione a livello governativo di policy per distinguere le notizie reali da quelle create, l’educazione e formazione sono indispensabili per non incorrere in queste truffe.
Puoi approfondire nell'articolo dedicato: Deepfake: cosa sono, come crearli e come riconoscerli
I LLM stanno trovando un impiego notevole nel campo della selezione del personale. Per le loro caratteristiche, infatti, queste nuove tecnologie possono procedere all’analisi automatizzata dei curricula classificando i candidati in base a criteri predefiniti, identificando – senza perdite di tempo – quelli più referenziati. La capacità di processare una quantità enorme di dati e informazioni consente inoltre di filtrare le candidature e scartare da subito quelle che non sono in linea, riducendo la rosa dei candidati per un colloquio, ad esempio.
Gli strumenti di IA possono essere molto utili anche per il background check su un candidato o per una due diligence. In pochissimi istanti è possibile conoscere le informazioni rilevanti su una determinata azienda (età e reputazione del CEO e del board, cambi di proprietà, eventuali procedure concorsuali, bilanci).
Il ricorso a questi strumenti non è ovviamente scevro da errori e pone dubbi di natura etica. La macchina, come già accennato, sconta a sua volta dei bias algoritmici, potrebbe procedere a un’analisi frettolosa e trascurare aspetti che invece verrebbero presi in considerazioni da un soggetto umano. I dilemmi etici riguardano soprattutto la privacy: fornire dati e informazioni ai LLM potrebbe contribuire a divulgare dati sensibili, violando quindi il diritto alla riservatezza, oppure produrre errori che finirebbero per danneggiare un candidato.
Guarda il video: Dibattito sul tema "Algoritmi sotto processo: l'uso dell'AI nella criminologia e nell'investigazione" nella seconda giornata del Festival della Criminologia 2025.
Un algoritmo è una creazione dell’intelletto umano che però può sfuggire al controllo quando evolve in un’Intelligenza Artificiale. Al momento i limiti di queste tecnologie sono ben evidenti e il dibattito sulla regolamentazione di questi aspetti è in corso.
Nel campo dell’investigazione i rischi principali possono riguardare le analisi predittive. Gli algoritmi potrebbero infatti riflettere dei pregiudizi presenti nei dati di addestramento, portando a discriminazioni involontarie. Le macchine possono infatti processare i dati ma non sono in grado di fare valutazioni sulle statistiche che restano appannaggio dell’essere umano.
Un altro limite evidente è rappresentato dalla mancanza di trasparenza nei processi decisionali dell’IA. Attualmente risulta infatti impossibile determinare il perché e il come le macchine giungano a una determinata conclusione.
Appare quindi imprescindibile l’intervento umano nell’utilizzo di queste tecnologie. L’IA è sicuramente un alleato prezioso in molti campi ma soltanto i professionisti umani, grazie a formazione, deontologia ed esperienza possono operare una sintesi e applicare criteri logici alle risultanze ottenute dall’Intelligenza Artificiale.
Dogma S.p.A. è pioniera nell’integrazione tra sistemi fisici e digitali. Ha dato vita alla divisione InvestigationTech e può contare su professionisti esperti e preparati in diversi ambiti investigativi.
Prima agenzia a dotarsi, ad esempio, di una divisione di psicologia investigativa, Dogma S.p.A. si affida a team multidisciplinari che coinvolgono investigatori, analisti OSINT, esperti forensi, analisti informatici e professionisti della cybersicurezza.
Un’agenzia prestigiosa e composta da professionisti è la migliore garanzia per un’etica investigativa. Tutte le indagini vengono svolte nel pieno rispetto delle normative e senza ledere la privacy dei soggetti.
Visita il sito:https://www.investigationtech.com/
Le sfide future in termini di utilizzo dell’IA riguarderanno certamente la ricerca di un necessario equilibrio tra innovazione e sorveglianza. La tentazione, soprattutto per i governi meno democratici, potrebbe essere quella di realizzare una sorveglianza predittiva e preventiva di tutti i cittadini. L’Unione Europea si sta già da tempo muovendo per una regolamentazione dell’impiego di questi strumenti.
In campo investigativo sono molte le opportunità potendo ottenere investigazioni più rapide e complete ma sono anche notevoli i rischi come false evidenze e un sovraccarico informativo che potrebbe portare a conclusioni affrettate o pericolose per gli individui.
1) Cos’è l’intelligence investigativa?
L’intelligence investigativa è l’attività di raccolta, analisi e interpretazione di informazioni rilevanti per prevenire, identificare o risolvere un illecito, utilizzando fonti aperte (OSINT), digitali e tradizionali.
2) Come si usano gli LLM nelle investigazioni?
I Large Language Models (LLM) supportano le investigazioni analizzando testi, individuando anomalie nei file, rilevando spyware e sintetizzando grandi volumi di dati in modo rapido e accessibile, anche senza competenze tecniche avanzate.
3) L’intelligenza artificiale può sostituire un investigatore?
No, l’intelligenza artificiale è uno strumento di supporto: accelera le analisi, ma non può sostituire l’esperienza, l’intuito e la valutazione etica di un investigatore umano.
4) Quali sono i rischi dell’uso dell’AI nelle indagini?
L’AI può generare errori, bias nei risultati, manipolazioni (deepfake) e interpretazioni fuorvianti. Per questo è fondamentale l’intervento umano e un uso etico degli strumenti digitali.
Un sito non basta a risolvere ogni dubbio e soprattutto a far fronte a tutte le necessità. Utilizza il form qui a lato o la CHAT per contattarci, prenotare un appuntamento e chiederci informazioni.