Food Digital Italia esce ogni martedì. Monitoriamo fonti istituzionali, dati di mercato e normative per portarti i segnali più rilevanti della settimana sul digitale applicato al food italiano. Niente teoria, niente hype — solo quello che può cambiare qualcosa nel tuo lavoro. Se ti hanno girato questa newsletter e vuoi riceverla ogni settimana, puoi iscriverti qui.

Non è solo roba da sviluppatori

La percezione più comune è che l'AI Act riguardi chi scrive codice o addestra modelli. È un errore che si paga: il regolamento si applica anche a chi usa sistemi AI — e la quasi totalità delle aziende food con una presenza digitale li usa già, spesso senza saperlo. I motori di raccomandazione dei prodotti, i chatbot di assistenza sul sito, i tool di pricing dinamico sui marketplace, i software di generazione delle schede prodotto multilingua: tutti potenzialmente in scope.

Il regolamento classifica i sistemi in tre fasce. I sistemi proibiti (nessuno rilevante per il food standard). I sistemi ad alto rischio — che includono applicazioni che incidono su sicurezza alimentare, accesso a risorse essenziali, o decisioni automatizzate con effetti legali sulle persone. E i sistemi a rischio limitato, che è la categoria di gran lunga più diffusa nel food digitale: chatbot di assistenza, recommendation engine, generatori di contenuto prodotto. Per questa terza fascia, gli obblighi non sono pesanti — ma devono essere implementati, e devono essere documentati.

Perché conta. Le autorità di vigilanza nazionali (in Italia sarà l'AGID, in coordinamento con il nuovo AI Office europeo) avranno poteri di ispezione da agosto. Non servono grandi dimensioni per essere nel radar: una PMI food con un chatbot sul sito è soggetta agli stessi obblighi di trasparenza di un player enterprise. La differenza è che per la PMI, trovarselo in disordine ad agosto costa proporzionalmente di più.

Cosa fare questa settimana. Fai un inventario di tre minuti: chatbot, motori di raccomandazione, tool AI per generare contenuto. Per ognuno, annota il fornitore. Poi vai sul sito del fornitore e cerca la parola "compliance" o "AI Act" nella documentazione. La maggior parte dei provider SaaS ha già pubblicato guide di conformità — il lavoro è spesso già fatto, basta sapere dove guardare.

L'obbligo che scatta per primo: i chatbot

Per i sistemi a rischio limitato — la categoria che include praticamente tutti i chatbot di assistenza clienti attivi oggi su siti e-commerce food — l'AI Act impone un requisito preciso: l'utente deve capire chiaramente, all'inizio dell'interazione, che sta parlando con un sistema automatizzato e non con una persona. Non basta una nota in fondo alla pagina dei termini di servizio. L'identificazione deve avvenire nel momento del contatto, in modo esplicito.

Per molte aziende food questo non cambia l'esperienza utente in modo sostanziale — ma richiede di verificare che la configurazione del proprio chatbot includa questa disclosure in modo conforme. La maggior parte dei provider (Tidio, Intercom, Zendesk, Freshdesk) ha già implementato funzioni native per l'AI disclosure nell'interfaccia della chat: spesso è una riga nelle impostazioni, non uno sviluppo custom.

Perché conta. Le sanzioni per mancata trasparenza arrivano fino all'1% del fatturato globale annuo. Per una PMI da €5 milioni di fatturato significa fino a €50.000. La sanzione non è il rischio principale per le dimensioni tipiche del food italiano — il rischio principale è una verifica a sorpresa che impone modifiche urgenti a sito, documenti e configurazioni, con costi di consulenza legale e sviluppo molto superiori a quelli di farlo adesso con calma.

Cosa fare questa settimana. Entra nelle impostazioni del chatbot che usi. Cerca "AI disclosure", "bot identification" o simili. Se non trovi nulla, contatta il supporto del fornitore chiedendo esplicitamente come sono conformi all'AI Act per i sistemi di rischio limitato. Se non hanno una risposta pronta, è un segnale: valuta se quel fornitore è quello giusto per il medio periodo.

AI per le schede prodotto: cosa documentare

Il numero #4 di questa newsletter ha mostrato come usare l'AI per generare schede prodotto multilingua in modo strutturato, partendo da dati master verificati. L'AI Act aggiunge un livello a quel flusso: chi usa sistemi AI per generare contenuto — incluse le descrizioni prodotto — deve poter dimostrare che i dati di partenza erano corretti e verificati prima che l'AI li trasformasse. Non si tratta di vietare l'uso dell'AI per il contenuto. Si tratta di poter ricostruire il flusso se qualcuno lo chiede.

Chi ha già un processo strutturato — dati master verificati a monte, generazione AI nel mezzo, validazione umana prima della pubblicazione — è sostanzialmente allineato. Il problema riguarda chi usa AI per generare contenuto "da zero" senza dati strutturati a monte: in quel caso non c'è solo un problema di AI Act, ma un rischio diretto sulla qualità dell'informazione alimentare pubblicata (ingredienti, allergeni, valori nutrizionali).

Perché conta. Il confine tra compliance AI Act e normativa food si sta avvicinando. Una scheda prodotto AI-generata con un errore sugli allergeni non è solo un problema di AI Act — è responsabilità diretta dell'azienda per la sicurezza del consumatore, con implicazioni molto più gravi di qualsiasi sanzione digitale.

Cosa fare questa settimana. Se usi AI per generare descrizioni o schede prodotto, scrivi in un documento — anche informale, anche in un foglio Google — il flusso che segui: quali dati metti in input, chi valida l'output, dove sono archiviati i dati master. Non serve un documento formale per agosto: serve avere la risposta pronta quando qualcuno la chiede. Avere il flusso scritto è anche il modo più rapido per trovare dove quel flusso ha dei buchi.

Tre mesi, tre azioni concrete: inventario dei sistemi AI in uso, verifica della disclosure chatbot, documentazione del flusso di generazione contenuto. Non è una trasformazione — è una pulizia che si fa una volta e non si rifà.

La settimana prossima: Transizione 5.0 — quali investimenti digitali nel food rientrano negli incentivi, le scadenze per presentare domanda, e come costruire un piano di accesso che tiene.

—-

Fonti

Regolamento UE 2024/1689 — AI Act, testo ufficiale: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:32024R1689
AI Act — quadro regolatorio e timeline, Commissione europea: https://digital-strategy.ec.europa.eu/it/policies/regulatory-framework-ai
AI Act per le PMI: guida pratica agli obblighi di trasparenza — AGID: https://www.agid.gov.it/it/agenzia/stampa-e-comunicazione/notizie
Obblighi AI Act per chatbot e sistemi a rischio limitato — AI Office EU: https://www.europarl.europa.eu/topics/it/article/20230601STO93804/legge-europea-sull-ia-la-prima-normativa-al-mondo-sull-ia

Continua a leggere