Thinking

Dal workshop alla prospettiva futura della trasparenza

Dopo aver raccontato il contesto e la struttura del workshop, entriamo ora nel merito dei benefici emersi e delle prospettive future

Pubblicato il
Presente in
Culture
Insights
Il team Tangible durante una sessione di lavoro sul workshop Trasparenza by Design, con la board FigJam condivisa sullo schermo.

Abbiamo visto come la trasparenza possa diventare un esercizio pratico, capace di far dialogare designer, legali e stakeholder già nelle prime fasi dei progetti. In questa seconda parte raccogliamo ciò che abbiamo imparato sul campo, i conflitti risolti insieme e i prossimi passi.

Non è un racconto didascalico, ma uno sguardo narrativo su come la trasparenza può rafforzare la fiducia e aprire la strada a nuove sfide, anche nei progetti che integrano l’intelligenza artificiale.

I principi per rendere la trasparenza concreta

Quando abbiamo immaginato il workshop, abbiamo deciso di seguire alcune regole di base. Non volevamo limitarci a controllare se vi fosse una privacy policy, ma capire quanto l’esperienza fosse davvero trasparente per le persone.

Per farlo ci siamo basati su principi che ci hanno guidato poi nella stesura e nella progettazione:

  • Chiarezza prima di tutto. Il linguaggio legale deve lasciare spazio a frasi semplici, esempi concreti e microcopy che l’utente capisce al primo colpo.
  • Le informazioni devono arrivare just in time. Vanno fornite al momento giusto, nel punto della journey in cui servono. Così diventano utili e non invasive.
  • La trasparenza deve rispettare il contesto e il dispositivo. Un avviso su uno smartwatch non può essere uguale a quello su desktop.
  • Gestibilità e controllo. Dare agli utenti la possibilità di vedere, modificare o revocare le proprie scelte in modo facile e veloce è parte integrante della trasparenza.
  • Friction consapevole. A volte è giusto rallentare l’utente, per aiutarlo a riflettere prima di prendere decisioni rischiose (come condividere dati sensibili o autorizzare profilazioni).
  • Explainable AI. Quando c’è un algoritmo che influenza il risultato, dobbiamo dirlo chiaramente, spiegando come funziona e quali limiti ha.

Questi capisaldi ci hanno permesso di costruire un framework di valutazione che non misura solo la conformità normativa, ma soprattutto l’impatto sull’esperienza delle persone.

Perché questo workshop “fa la differenza”

Abbiamo il sentore che questo workshop evolverà nel tempo come tutti i framework che costruiamo. L’efficacia sarà validata dal tempo che dedicheremo al suo utilizzo e dalla velocità con cui interiorizzeremo le domande che abbiamo deciso di disporre all’interno di questo esercizio che vede tutti intorno allo stesso tavolo: designer, product owner, legal e stakeholder di business.

Abbiamo la certezza che possa portare benefici concreti e già oggi osserviamo alcuni risultati importanti.

Crea consapevolezza condivisa

Tutti vedono con chiarezza dove l’esperienza è opaca e dove invece comunica bene. È un momento in cui il team smette di dare per scontato che "gli utenti capiranno da soli".

Trasforma un obbligo in un’opportunità di design

La trasparenza smette di essere un documento da consegnare a progetto finito e diventa un criterio di qualità, che migliora la UX e rafforza la fiducia degli utenti.

Fa emergere conflitti e li risolve in un contesto collaborativo

Spesso il legal teme di perdere precisione, il marketing teme di perdere conversioni. Nel workshop queste tensioni vengono discusse apertamente, fino a trovare soluzioni che rispettano le esigenze di tutti.

Schermata della board FigJam Trasparenza by Design con post-it colorati che sintetizzano idee e principi emersi nel brainstorming sul tema della trasparenza.

Uno sguardo ai prossimi passi: Trasparenza e intelligenza artificiale

Questa versione del workshop è stata il nostro primo passo per rendere la Trasparenza un criterio concreto di valutazione dell’impatto.
Ma non ci fermiamo qui.

Stiamo lavorando per capire se l’approccio costruito sin ora si può applicare ai progetti che integrano modelli di intelligenza artificiale, un ambito in cui la trasparenza diventa ancora più critica per spiegare come vengono prese le decisioni, rendere visibili i limiti e i bias dei sistemi e dare alle persone la possibilità di controllare o contestare i risultati.

Nei prossimi mesi continueremo a sperimentare su questo fronte e a condividere ciò che impariamo: perché la trasparenza, soprattutto nell’era dell’AI, è ciò che permette alle persone di fidarsi di ciò che costruiamo.

Vuoi contribuire alla discussione?

Abbiamo deciso di condividere apertamente questo workshop con la community perché crediamo che solo dal confronto possano nascere nuove idee. 

La Trasparenza è difatti un impegno condiviso. 

Raccontaci come la stai applicando nei tuoi progetti e aiutaci a far evolvere questo workshop. Ogni esperienza può diventare un tassello prezioso per costruire fiducia.

Leggi anche