2026-03-18
Anchoring bias nel brainstorming con AI
⚠️ Disclaimer: questo articolo è stato scritto in collaborazione con un'AI. Il che, considerato l'argomento, è o molto ironico o una prova del concetto. Lascio decidere al lettore o all'AI che lo interpreterà.
TL;DR - Quando usiamo l'AI per fare brainstorming, la prima cosa che scriviamo nel prompt diventa un'ancora cognitiva. Il modello non aiuta a uscire dalla nostra idea iniziale: la amplifica, la convalida, la rende convincente. Più sei esperto, peggio funziona. Ci sono forse modi pratici per rompere il meccanismo.
Il problema
Due designer, stesso brief, stessa AI. Il primo parte con un prompt aperto. Il secondo aggiunge: "sto pensando a qualcosa tipo Duolingo."
Risultati completamente diversi. Non per la risposta dell'AI — per il prompt.
Il secondo designer non ha ricevuto una risposta peggiore. Ha ricevuto una risposta prigioniera del suo stesso prompt.
Perché succede
Il bias dell'ancoraggio è roba degli anni '70 — Tversky e Kahneman, numeri, decisioni1, citato triliardi di volte e ultra noto. Ma con i modelli linguistici acquisisce una dimensione nuova.
Quando mettiamo un riferimento nel prompt, stiamo definendo uno spazio semantico2. Il modello opera per prossimità vettoriale3: la nostra ancora posiziona la risposta in una scatola concettuale, e le iterazioni successive restano vicine. Una biglia in una ciotola: puoi spostarla, tende sempre a tornare al centro.
I transformer4 sono inoltre ottimizzati per la coerenza contestuale: è una feature utile nell'analisi, una trappola nell'esplorazione creativa. Anche quando chiedi "qualcosa di completamente diverso", stai navigando dentro la stessa scatola.
C'è un terzo motivo, più "nascosto"". I modelli linguistici moderni sono addestrati con reinforcement learning da feedback umano, RLHF5. In pratica: le risposte che gli umani valutano positivamente vengono rinforzate nel tempo. Nel brainstorming questo significa che il modello tende a produrre idee che sembrano buone, solide, convincenti.
Più sei esperto, peggio va
Anni di esperienza significano prompt precisi, contestualizzati, densi di riferimenti impliciti. Ogni dettaglio che aggiungiamo istruisce il modello a restare nel territorio che già conosciamo.
Esempio:
Un designer chiede come migliorare il checkout di un ecommerce, specificando che vuole "ridurre i passaggi". L'AI ottimizza il flusso esistente con precisione ma nessuno ha messo in discussione se il problema fosse davvero il numero di passaggi.
Spoiler: non era quello il problema. Gli utenti abbandonavano al momento di inserire la carta perché non c'era nessun segnale visivo di sicurezza in quel punto. Nessun lucchetto, nessun logo Stripe, nessun "pagamento sicuro".
Il problema in questo caso è usare l'AI per sostituire il pensiero critico invece che per estenderlo, farle fare le domande al posto nostro, invece di usarla per esplorare risposte che da soli non avremmo trovato.
Grazie al casio penserete ma man mano che gli strumenti si affinano è facile affidarsi sempre più.
Modi possibili per farsi aiutare veramente
Prompt critico Prima di chiedere idee, chiedi all'AI di smontare il tuo approccio: "Dimmi perché questa direzione è sbagliata."
Esplorazione Ad Cazzum Chiedi cinque direzioni, proposte, opzioni. Poi valutale in parallelo.
CdA di modelli Porta lo stesso prompt a modelli diversi (ChatGPT, Claude, Gemini) senza mostrare le risposte precedenti. Trattali come membri di un consiglio di amministrazione mentale: ognuno con il suo punto di vista, nessuno a conoscenza degli altri. Le divergenze tra le risposte sono spesso più utili delle risposte stesse.
Ancore contraddittorie "Voglio qualcosa di minimalista come il design giapponese e caotico come un mercato rionale." Probabilmente ti darà materiale inutilizzabile così com'è ma da cui ricavare qualche spunto.
Cambio di dominio "Come avrebbe risolto questo Dieter Rams, che odiava le notifiche?" Uscire dal dominio aiuta a rompere la prossimità vettoriale.
La domanda che vale la pena farsi
Se milioni di designer e developer usano gli stessi modelli con prompt simili, stiamo convergendo verso uno spazio creativo collettivo ristretto. Per inerzia semantica, non per scelta.
La prossima generazione imparerà a esplorare o resterà nel recinto come allo zoo?
Footnotes
-
Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124–1131. doi:10.1126/science.185.4157.1124 — Il paper originale in cui viene formalizzato l'anchoring effect come meccanismo cognitivo sistematico. ↩
-
Uno spazio semantico è una rappresentazione matematica del significato delle parole. In un modello linguistico, ogni parola o concetto viene codificato come un vettore in uno spazio ad altissima dimensione — concetti simili occupano posizioni vicine. Quando scrivi "Duolingo" nel prompt, stai letteralmente spostando il punto di partenza della risposta verso quella zona dello spazio. ↩
-
La prossimità vettoriale è il meccanismo con cui il modello misura la "vicinanza" semantica tra concetti. Più due vettori sono vicini nello spazio, più i concetti sono considerati correlati. È la base del funzionamento degli embedding nei modelli linguistici moderni. ↩
-
I transformer sono l'architettura alla base dei moderni modelli linguistici (GPT, Claude, Gemini). Il meccanismo chiave è l'attention: ogni token generato "guarda" tutti i token precedenti nella conversazione per decidere cosa produrre. Questo garantisce coerenza interna — utile quasi sempre, meno utile quando vuoi rompere uno schema. ↩
-
RLHF — Reinforcement Learning from Human Feedback. Christiano et al. (2017). Deep reinforcement learning from human preferences — Durante il training, umani valutano le risposte del modello e quelle giudicate migliori vengono rinforzate. Il risultato è un modello ottimizzato per produrre output che piacciono — coerenti, ben strutturati, convincenti. Utile in quasi tutti i contesti, meno utile quando hai bisogno che il modello ti dica che stai facendo la cosa sbagliata. ↩
