Non sono slogan. Sono vincoli operativi reali che applichiamo in ogni progetto, e che a volte ci hanno fatto rinunciare a contratti. Li pubblichiamo perché crediamo che la trasparenza sui principi sia il fondamento della fiducia, specialmente in un settore dove la fiducia scarseggia.

Principio 1: L’AI assiste, non sostituisce

Ogni agente AI che progettiamo opera sotto supervisione umana. Nessun agente prende decisioni finali autonome su materie che riguardano persone, clienti, denaro, comunicazioni pubbliche. La decisione ultima è sempre di un essere umano.

In pratica: ogni architettura ha un punto di controllo umano definito. Un agente che prepara una risposta email non la invia: la prepara e un operatore la revisiona prima dell’invio. Un agente che genera un preventivo non lo firma: lo bozza e un tecnico lo verifica.

Questo principio non è solo etico: è anche operativo. Gli agenti AI sbagliano. A volte in modo sottile e non ovvio. La supervisione umana è l’ultima linea di difesa contro errori che possono costare caro. Approfondisci: perché il human-in-the-loop è fondamentale.

Principio 2: Trasparenza con i clienti finali

Quando un agente AI interagisce con i clienti del nostro cliente (risposte email, chatbot, contenuti), la persona dall’altra parte ha il diritto di sapere che sta interagendo con un sistema AI-assistito. Non necessariamente con un banner invadente, ma con un’informazione chiara e accessibile.

In pratica: nelle interfacce che progettiamo, c’è sempre un elemento che comunica l’uso dell’AI. A volte è un footer discreto (“Questo messaggio è stato preparato con assistenza AI e verificato dal nostro team”), a volte è una pagina dedicata sul sito del cliente. Il livello di esplicitazione varia con il contesto, ma la trasparenza non è mai assente.

Questo principio anticipa anche i requisiti dell’AI Act europeo, che impone trasparenza per i sistemi a rischio limitato.

Principio 3: Protezione rigorosa dei dati

I dati dei clienti sono sacri. Non sono nostri, non sono del fornitore AI, non sono di nessun altro. Vengono trattati con il massimo livello di protezione disponibile, e mai usati per scopi diversi da quello per cui sono stati raccolti.

In pratica: ogni progetto ha un DPA (Data Processing Agreement) firmato con ogni fornitore coinvolto. Usiamo solo servizi AI con garanzia di non-training sui dati del cliente. Preferiamo server UE quando possibile. I dati personali vengono sempre separati dai dati operativi aggregati. I log sono conservati in modo sicuro e con accesso controllato.

Approfondisci: le nostre 9 best practice di sicurezza e AI e GDPR.

Principio 4: Onesta radicale nelle aspettative

Non promettiamo quello che non possiamo mantenere. Non gonfiamo le proiezioni di ROI. Non nascondiamo i costi ricorrenti. Non diciamo “l’AI farà tutto al posto tuo”.

In pratica: ogni proposta commerciale contiene una sezione “rischi e limitazioni” dove elenchiamo cosa può andare storto, quali sono i limiti dell’intervento, in quali circostanze il progetto potrebbe non produrre i risultati attesi. Non lo facciamo per proteggerci legalmente (anche), lo facciamo perché il cliente merita di decidere con tutte le informazioni.

E quando l’analisi ci dice che un progetto AI non ha senso per quel cliente specifico, lo diciamo. Lo abbiamo fatto per circa il 25% delle richieste ricevute. Leggi: quando NON serve un agente AI.

Principio 5: Nessun lavoratore viene sostituito dall’AI

Non progettiamo agenti AI per eliminare posti di lavoro. Progettiamo agenti AI per liberare le persone dalle parti più frustranti e ripetitive del loro lavoro, così che possano dedicarsi a ciò che fanno meglio: pensare, creare, relazionarsi, decidere.

In pratica: nei brief di progetto, c’è sempre una sezione “impatto sul team” dove verifichiamo che nessun dipendente venga licenziato o svalutato come conseguenza diretta dell’implementazione. Se un’azienda ci chiede esplicitamente di progettare un sistema per sostituire persone, decliniamo il progetto. È successo due volte, e abbiamo declinato.

Questo non significa che i ruoli non cambino. Cambiano eccome: le persone passano da lavoro ripetitivo a lavoro strategico, da data entry a supervisione e decisione. Ma nessuno esce dalla porta.

Perché ci imponiamo questi vincoli

In parte per ragioni morali: crediamo che la tecnologia debba servire le persone, non il contrario. In parte per ragioni pratiche: i progetti che rispettano questi principi hanno tassi di successo più alti, team più collaborativi, clienti più fedeli, e zero incidenti gravi.

E in parte per un motivo semplice: è il tipo di azienda in cui vogliamo lavorare.

Hai domande sui nostri principi?

Se vuoi capire come questi principi si applicano concretamente al tuo caso, o se hai dubbi sull’etica dell’AI nella tua azienda, siamo disponibili a parlarne. Nessun costo, nessun impegno.

Parliamo di etica e AI →