Un'Italia che usa l'intelligenza artificiale in modo umano. Una tecnologia che amplia la libertà delle persone, invece di restringerla. Una cittadinanza digitale che non è il privilegio di pochi.
Tra cinque anni, parlare di intelligenza artificiale come di una novità sarà ridicolo. Sarà nell'ufficio del medico, nella tesi di laurea, nel concorso pubblico, nella domanda di mutuo. Sarà ovunque. La domanda non è se succederà, ma come.
Vogliamo un'Italia in cui ogni cittadino sappia distinguere un sistema che lo serve da uno che lo profila. In cui le scuole insegnino l'AI come si insegnano l'educazione civica o l'italiano. In cui le imprese che la usano siano tenute a dichiararlo, e quelle che la progettano siano accountable per quello che producono.
Non è un obiettivo politico di un partito. È un obiettivo civico. Ed è il motivo per cui esistiamo come APS — perché serve un soggetto non commerciale, non istituzionale, che faccia questo lavoro nel mezzo. In italiano.
Ogni sistema che progettiamo o promuoviamo deve poter essere spiegato a chi lo userà. Se non si capisce, non è neutro: è un'autorità.
Citiamo paper, studi, fonti primarie. Le opinioni le hanno tutti — il nostro lavoro è metterle a confronto con i fatti, in italiano, accessibili.
Capire come funziona l'AI è un diritto civico, come capire come si vota o come funzionano le tasse. Tutti i nostri materiali resteranno gratuiti.
Costruiamo per i prossimi dieci anni, non per il prossimo trimestre. Le campagne lampo le lasciamo agli altri. Ci interessa la lentezza che cambia.
Quando un partner offre un servizio, lo diciamo. Quando un membro ha un interesse, lo dichiariamo. La trasparenza è una postura, non un capitolo del bilancio.
Rifiutiamo il tecno-soluzionismo — l'idea che ogni problema sociale possa essere risolto con un modello più grande. Non può. Alcuni problemi sono politici, alcuni sono distributivi, alcuni richiedono che meno tecnologia, non più.
Rifiutiamo la teatralità del rischio esistenziale usata come distrazione dai danni reali e attuali — la sorveglianza, la perdita di posti di lavoro mal gestita, i bias automatizzati nelle decisioni amministrative. Le AGI ipotetiche non assolvono le AI quotidiane.
Rifiutiamo la scorciatoia del tech-bro, sia in versione entusiasta che in versione apocalittica. È lo stesso codice culturale: pochi maschi che decidono per tutti il futuro di tutti. Vogliamo un dibattito pubblico, in italiano, partecipato.
Non parliamo agli addetti ai lavori — ne hanno già di canali. Parliamo all'insegnante che si chiede se vietare ChatGPT agli studenti. Al sindacalista che negozia un contratto in un'azienda che introduce AI. Al medico di base a cui qualcuno propone uno strumento di triage. Al funzionario pubblico che riceve un capitolato con dentro "machine learning".
E a chiunque — semplicemente — voglia farsi un'idea. Senza dover prima imparare l'inglese tecnico, senza dover comprare un corso, senza dover fingere di aver già capito.
C'è stato un momento, in Italia, in cui abbiamo pensato di poter progettare la tecnologia diversamente. Si chiamava Adriano Olivetti, si chiamava Comunità, succedeva a Ivrea e in altre fabbriche dove la cura del lavoro contava quanto il prodotto. Quel momento è stato interrotto, con cura.
Da lì veniamo. Non per nostalgia, ma per metodo. Crediamo che si possa fare innovazione senza rinunciare alla dignità delle persone. Crediamo che le imprese possano essere belle, e che la bellezza non sia un costo accessorio ma una conseguenza della serietà con cui si costruisce.
L'AI è la nostra Olivetti del 2026. È la finestra in cui possiamo scegliere se costruire una tecnologia che ci somiglia, o lasciare che ci venga imposta da chi ha più capitale e meno scrupoli. Via Lattea esiste per tenere quella finestra aperta.