Thinking

Lesson learned: integrare l’AI nella ricerca utente senza perdere valore

L’introduzione dell’AI nei nostri progetti di ricerca ha generato fin da subito una combinazione di curiosità e cautela: da un lato, l’entusiasmo per le nuove possibilità; dall’altro, il timore di delegare troppo a uno strumento che, per quanto potente, resta pur sempre una tecnologia da guidare.

Pubblicato il
Presente in
Insights
Innovazione
Scritto da
Claudio Guerra
Illustrazioni stilizzate rappresentano strumenti digitali, emozioni e processi circolari, su sfondo chiaro con un’area scura laterale.

Negli ultimi mesi, sia nel talk di Valentina Marzola (uxday) sia in quello di Caterina Amato (URCA!), abbiamo condiviso pubblicamente alcuni degli esperimenti più significativi che stiamo portando avanti in Tangible.
Questo articolo raccoglie ciò che abbiamo imparato, con uno sguardo onesto su potenzialità, limiti e implicazioni pratiche dell’uso dell’AI nella ricerca con le persone.

Perché abbiamo deciso di iniziare a sperimentare

Chi fa ricerca nel mondo reale conosce bene le difficoltà quotidiane: tempi ristretti, budget ridotti, difficoltà di sintesi, necessità di condividere insight chiari in tempi rapidi. In questo scenario, abbiamo iniziato a chiederci se l’AI potesse esserci d’aiuto in alcuni momenti specifici, alleggerendo il carico di lavoro operativo senza compromettere la qualità.

Ma da subito è stata definita una regola condivisa: usare l’AI per fare spazio, non per sostituire.
Lo scopo non è automatizzare il pensiero, ma creare margine per pensare meglio.

Due esperimenti sul campo

Nei progetti raccontati da Caterina e Valentina, abbiamo preferito concentrarci su due fasi che, più di altre, ci sono sembrate emblematiche nel modo in cui l’AI può portare un supporto concreto e misurabile: la fase di Discovery e quella di Usability testing.

Se per entrambe, gli esperimenti fatti sono molteplici, nei due talk abbiamo messo un riflettore su due attività specifiche:

  • Preparazione della ricerca
    Nella fase di Discovery, abbiamo provato a usare ChatGPT non solo per esplorare un nuovo dominio, sconosciuto tanto al team quanto al cliente, ma anche per esplorare scenari ipotetici, simulare dialoghi realistici e identificare variabili e criticità.

    Abbiamo anche provato a capire se fosse utile nella co-creazione di uno script. Questa collaborazione ci ha permesso di costruire domande e script più solidi.
  • Sintesi dei dati e preparazione della reportistica
    In entrambi i casi di studio illustrati, il numero di intervistati superava i 100. La vera sfida però che ci ha portato a valutare l’integrazione dell’AI a nostro supporto sono state i 10 giorni full-time nel caso del test di usabilità e le circa 12 ore di registrazioni nel caso della discovery. In entrambe le situazioni, il tempo di sintesi e restituzione dei report era a dir poco limitato. Cosa abbiamo deciso di fare? Chiedere aiuto a NotebookLM e ChatGPT come assistenti.

    Se per l’attività di Discovery NotebookLM è stato lo strumento principe di analisi e identificazione di temi salienti, per il test di usabilità abbiamo preferito ChatGPT. Dopo aver strutturato il file di notetaking in modo rigoroso, a quest'ultimo abbiamo chiesto di identificare pattern, ricavare citazioni e insight.
    Una fase intensa, resa più sostenibile grazie al supporto dell’AI.
Illustrazioni disegnate a mano che mostrano un’analisi di insight utenti e un supereroe designer intento a intervistare un gruppo variegato di persone.

Cosa ha funzionato

Abbiamo scoperto che l’AI può diventare un buon alleato, soprattutto nei momenti in cui la mole di dati da elaborare rischia di schiacciare la capacità analitica del team. Automatizzare alcune attività ripetitive, come la fase di sbobinatura e sintesi iniziale delle interviste o come l’identificazione di temi ricorrenti e l’estrazione delle citazioni, ci ha permesso di concentrare le energie su ciò che richiede senso critico: interpretare, collegare, raccontare.

In fase esplorativa, in un contesto sconosciuto, poi, l’AI si è rivelata utile per sciogliere i primi dubbi, costruire scenari verosimili e generare ipotesi da validare. Partire con qualche punto d’appoggio può fare la differenza.

E quando si lavora da soli, in team ridotti o in condizioni di tempo limitato, avere un "copilota" digitale con cui relazionarsi può rappresentare un vantaggio reale, anche solo per confrontare percezioni emergenti e verificare la consistenza degli insight raccolti.

Cosa ha funzionato meno

Non tutto è andato liscio. Anzi, in alcuni casi l’uso dell’AI ha evidenziato più limiti che vantaggi. Per esempio, abbiamo capito che in caso di supporto alla sintesi di dati raccolti durante uno usability test, l’AI non sa "vedere": non riesce a collegare ciò che accade su una schermata con i comportamenti descritti nelle note, a meno che non le si fornisca un contesto estremamente dettagliato. Questo la rende poco utile in fase di analisi di test su interfacce complesse, se non affiancata da un lavoro di mappatura puntuale.

Inoltre, la qualità dell’output è strettamente legata a quella dell’input. Se le note non sono ben organizzate, o se più ricercatori usano schemi diversi, l’AI fatica a orientarsi. In alcuni casi ha anche inventato contenuti o enfatizzato aspetti secondari, distorcendo le priorità emerse.

Infine, ci siamo resi conto che l’AI non ha alcuna consapevolezza del contesto progettuale. Non distingue tra ciò che è rilevante e ciò che è rumore, se non glielo spieghi. E questo, in una fase delicata come la sintesi, può diventare un rischio piuttosto che un aiuto.

Cosa ci portiamo a casa (per ora)

Se c'è una cosa che questi esperimenti ci hanno insegnato, è che l'AI può sbloccare valore, ma non crea valore da sola. Per farla funzionare serve metodo, attenzione e spirito critico. Non è un sistema esperto: è uno strumento che può amplificare la nostra capacità, oppure confonderla.

La chiave sta nell'integrazione: non si tratta di sostituire persone con algoritmi, ma di creare spazi di collaborazione tra le due intelligenze. In questo senso, ci piace pensarla più come un assistente che ti aiuta a fare meglio il tuo lavoro, piuttosto che come un sostituto.

E ci portiamo anche una maggiore consapevolezza. Sull'importanza di strutturare bene le informazioni, di condividere le convenzioni all'interno del team, di prevedere una revisione critica e condivisa.

L’AI non è neutra, né magica. Ma è uno strumento potente, se usato con metodo.

E proprio a partire da questa consapevolezza, abbiamo raccolto alcuni principi che stiamo tenendo a mente mentre continuiamo a sperimentare, e che riteniamo utili da condividere con chi si sta ponendo le nostre stesse domande:

  • Strutturare bene i dati conta più del tool: se le note sono fatte male, l’AI si perde. Se sono ben organizzate, può aiutarti davvero.
  • L’AI capisce meglio i testi che le interfacce: per ora non sa “vedere” uno schermo o leggere uno sketch.
  • La velocità non è un obiettivo, ma una conseguenza: l’AI ci fa risparmiare tempo per dedicarci a quello che richiede attenzione, ascolto, empatia.
  • Mai fidarsi ciecamente: l’AI può inventare, distorcere, enfatizzare temi poco rilevanti. Serve sempre una validazione umana, critica e contestualizzata.

Non più velocità, ma più strategia

Tutto questo ci ricorda che il vero valore della ricerca non sta nella velocità con cui la conduciamo, ma nella capacità di leggere in profondità ciò che emerge.

Integriamo l'AI non per fare ricerca in meno tempo, ma per fare meglio il nostro lavoro. Per liberare margini in cui tornare a ragionare con calma, approfondire un insight, scegliere le parole giuste per raccontarlo. In un contesto sempre più pressante, questa non è una scorciatoia. È una scelta progettuale.

La nostra esplorazione è tutt'altro che conclusa. Stiamo continuando a testare strumenti, adattare processi, confrontarci con altri team. Ma se c'è qualcosa che possiamo già affermare con certezza è questo: l'AI non cambia il nostro modo di fare ricerca. Cambia le condizioni in cui possiamo permetterci di farla bene.

Caterina e Valentina sul palco durante due talk dedicati al ruolo strategico dell’AI, con pubblico in sala e slide proiettate.

Viviamo un momento di grande incertezza. Modelli di business che cambiano, nuove tecnologie che accelerano, aspettative che si trasformano. In questo contesto, testare e validare idee con le persone non è un lusso, ma una necessità.

Per questo crediamo ancora di più nel valore della ricerca con gli utenti: per capire prima di costruire, per scegliere meglio, per evitare soluzioni che funzionano solo sulla carta. In Tangible affianchiamo team di prodotto e organizzazioni in percorsi di user research mirati, agili e sostenibili.

Se stai cercando un modo concreto per capire se la direzione intrapresa è quella giusta, possiamo aiutarti.

Leggi anche