Inspiration
Explainable AI
L'intero viaggio dei dati, dall'input all'output, viene influenzato da decisioni umane, ogni scelta, così come ogni tecnologia impiegata, influenza non solo la bontà dei risultati ma anche l'interpretabilità degli stessi e di conseguenza la trasparenza.
In questo quarto appuntamento di Inspiration 2024 dedicato all'Explainability, guidati dall'esperienza di Stefano Vincenzi, Data Scientist in Ammagamma, esploreremo il concetto di "scatola nera" dell'intelligenza artificiale e le tecnologie emergenti volte a rendere trasparenti i processi decisionali degli algoritmi.
Attraverso esempi concreti, discuteremo delle sfide specifiche legate all'interpretazione dei risultati degli algoritmi, soprattutto in relazione ai modelli basati su Large Language Models (LLM), e l'importanza di rendere trasparenti i processi decisionali.
Cercheremo poi di capire quando e in quali contesti l'Explainability risulti imprescindibile ed in quali altri invece risulti meno necessaria, diverse aree applicative infatti richiedono differente livello di dettaglio.