Pollicino lancia Aidvisory: una boutique tra diritto, tecnologia ed etica
Professore ordinario di Diritto Costituzionale e AI Law alla Bocconi, avvocato cassazionista e presidente del centro DICOPO di Bruxelles, Oreste Pollicino è tra i giuristi europei più citati sui temi della tutela dei diritti fondamentali online, delle tecnologie digitali e della governance dell’intelligenza artificiale. Dopo oltre vent’anni di esperienza tra accademia, istituzioni e consulenza a grandi imprese, lancia oggi Pollicino & Partners AIdvisory, boutique indipendente che unisce diritto, tecnologia ed etica. Al suo fianco un network interdisciplinare di costituzionalisti, esperti di AI governance, cybersecurity, media e comunicazione. Obiettivo: offrire alle aziende strumenti avanzati di compliance e risk governance, dai fundamental rights impact assessments all’AI literacy, accompagnando al contempo istituzioni e clienti nei contenziosi costituzionali ed europei e nel dibattito di policy a Bruxelles.
Professore, come è nato il progetto Pollicino & Partners AIdvisory?
Il progetto nasce dall’incrocio di due percorsi: da un lato quello accademico e istituzionale, in cui mi sono occupato di diritto costituzionale, diritto dell’Unione europea e regolazione digitale; dall’altro quello professionale, maturato attraverso incarichi di consulenza e advisory in banche, telecomunicazioni, media e assicurazioni. Negli ultimi due anni ho coordinato con il mio team un progetto pionieristico di AI governance per una delle principali banche italiane, introducendo modelli di fundamental rights impact assessment e aggiornando interi corpi normativi interni per renderli compatibili con l’AI Act. È stata un’esperienza che ha mostrato quanto l’intelligenza artificiale non sia un tema teorico, ma un terreno operativo che obbliga imprese e istituzioni a coniugare diritto, tecnologia ed etica.
I partner della vostra “targa” non sono soci in senso giuridico. Mi sembra di capire si tratti di un network di professionisti con diverse specializzazioni aggregato attorno al progetto. Giusto? Di chi si tratta?
Non si tratta di una partnership in senso tecnico, ma di un ecosistema di professionisti che condividono l’approccio e la visione del progetto. Accanto a giuristi esperti di costituzionalismo, diritto dell’Unione, data protection e AI compliance come Giovanni De Gregorio e Giulia Gentile, e accademici specializzati in diritto internazionale pubblico e contenzioso davanti la Corte europea dei diritti dell’uomo, come i professori Marina Castellaneta, Gabriele Della Morte e Enrico Bonadio, grande esperto in tema di tutela di diritto d’autore troviamo figure con un solido background accademico, tecnologico e strategico in tema di intelligenza artificiale: Giuseppe Accardo per la trasformazione AI, Cosimo Accoto per le implicazioni etico-filosofiche del digitale, Marco Bacini, Luigi Martino, Giorgio Scichilone insieme Elia Gelati per AI governance, cybersecurity e cyber-intelligence.
Poi?
Sul fronte litigation e diritto amministrativo operano professionisti del calibro Domenico Ielo e Riccardo Perlusz, che fa da ponte tra la dimensione legale e quella tecnologica. Il team è completato da esperti di media, disinformazione e comunicazione come Clementina Salvi, grande esperta di moderazione dei contenuti e Manuela Ronchi, molto conosciuta nel settore della comunicazione, che segue tra gli altri Luciano Floridi. Fondamentale ovviamente anche la practice di diritto dell’Unione europea.
È una squadra che nel tempo potrebbe crescere? In che modo?
Il progetto è volutamente scalabile e aperto, pensato per attrarre professionalità che vogliano mettersi in gioco in una realtà diversa dal modello tradizionale. La crescita avverrà accogliendo profili che sappiano incarnare questa attitudine interdisciplinare e costituzionale, con competenze non solo giuridiche, ma anche in settori come l’ingegneria, il risk management, la cybersicurezza o l’analisi dell’impatto sociale delle tecnologie. Molti dei nostri collaboratori già oggi operano fuori dall’Italia, Lisbona, Londra. E il centro DICOPO, di cui sono presidente, ci consente di avere anche una presenza a Bruxellese in altre capitali europee.
Lo studio si occuperà di “AIdivisory”: quali attività sono radunate sotto l’ombrello di questo neologismo?
“AIdivisory” rappresenta la nostra volontà di andare oltre la consulenza tradizionale. Significa affrontare l’intero ciclo di vita dei sistemi di intelligenza artificiale: dalla fase di progettazione, alla conformità con l’AI Act e con le normative nazionali, alla contrattualistica, fino alla governance dei dati e alla valutazione dei rischi legali, etici e reputazionali. Naturalmente ci occupiamo anche di compliance: AI Act, DSA, DMA, GDPR, DORA, EMFA. Ma aggiungiamo altri piani.
Quali?
La predisposizione di modelli di AI risk governance, inclusi i fundamental rights impact assessments, che siamo stati i primi a sperimentare sul campo; la formazione e l’AI literacy per board e manager; la consulenza strategica a istituzioni e aziende per integrare la dimensione etica e sociale nelle scelte tecnologiche.
Una parte sempre più rilevante riguarda il contenzioso, in particolare costituzionale ed europeo. Accompagniamo clienti e istituzioni in ricorsi davanti a Corti nazionali, alla Corte di Giustizia dell’UE e alla Corte Europea dei Diritti dell’Uomo, difendendo diritti e interessi in cause che definiscono gli equilibri tra potere pubblico, mercato e tecnologia.
Al tempo stesso vogliamo essere un hub di policy critica, in grado di guidare e orientare il dibattito pubblico sull’intelligenza artificiale e sulla regolazione digitale non solo in Italia, ma a livello europeo.
In che modo si pone questa iniziativa rispetto al percorso fatto in precedenza con DML e la Prof.ssa Finocchiaro?
L’esperienza con la professoressa Finocchiaro è stata per me una tappa fondamentale di crescita. Tra i due studi c’è e ci sarà sempre una forte collaborazione, nel segno di una continuità di intenti e di una comune attenzione ai temi della regolazione digitale.
Quali saranno le vostre attività core?
Il core business si snoda attraverso in 5 practice principali, anche se consiglio di guardare al track record presente sul sito per avere una idea più approfondita.
Proviamo a fare una carrellata veloce?
Partirei dall’AI Governance & Compliance: supporto per l’adeguamento all’AI Act, sviluppo di modelli interni di audit e soprattutto predisposizione dei fundamental rights impact assessments (FRIA). Dal 1° agosto 2026 questi strumenti diventeranno obbligatori per i sistemi di AI ad alto rischio. Non è un compito semplice: un FRIA richiede non solo una conoscenza tecnica della compliance, ma anche la capacità di valutare concretamente l’impatto sugli equilibri dei diritti fondamentali. Poi abbiamo il Data Protection & Cybersecurity: consulenza su GDPR, data strategy e sicurezza digitale; Policy Advisory & Litigation Support: assistenza a istituzioni e imprese nella predisposizione di policy e nella gestione di contenziosi complessi, con un focus su contenziosi costituzionali ed europei; Advisory e contenzioso in materia di diritto dell’Unione europea e diritto CEDU; nonché consulenza e contenzioso di fronte alla Corte costituzionale
A quale tipologia di clienti vi rivolgete?
La clientela è composita: grandi banche, multinazionali e assicurazioni, ma anche imprese industriali e organizzazioni che non hanno un core tecnologico. L’AI non riguarda solo le aziende high-tech: tocca settori tradizionali come energia, sanità e media. E, più in generale, riguarda ogni comparto produttivo: dal manifatturiero al lusso, tutti hanno bisogno di dotarsi di un’AI policy se vogliono davvero servirsi di questa tecnologia in modo responsabile e competitivo.
Come mai ha scelto di creare una boutique indipendente e non ha proposto di inserire questa task force all’interno di uno studio multidisciplinare?
La scelta è stata strategica. Una boutique indipendente garantisce agilità, sperimentazione e capacità di risposta tailor-made ai bisogni dei clienti, evitando le rigidità che caratterizzano le grandi strutture. Volevamo costruire un contesto che fosse al tempo stesso solido, per qualità e competenze, ma flessibile e aperto all’innovazione metodologica. È così che possiamo essere non una semplice “divisione interna” di uno studio, ma un vero e proprio laboratorio di consulenza e ricerca applicata, capace di adattarsi rapidamente ai mutamenti del mercato e alle nuove sfide tecnologiche.
Le prospettive di mercato quali sono?
Le prospettive sono significative. L’intelligenza artificiale rappresenta una trasformazione epocale che coinvolge imprese, istituzioni e cittadini. Il nuovo quadro normativo europeo, con l’AI Act al centro, apre spazi enormi per chi sappia coniugare competenza giuridica, visione strategica e comprensione tecnologica. Di questo spirito, l’obbligo di produrre una FRIA è il simbolo. Non è semplice da realizzare: richiede una familiarità che non solo di compliance, ma di assessment costituzionale. Bisogna saper leggere come un algoritmo incida sull’autodeterminazione, sulla dignità, sulla parità. È proprio questa capacità di unire il linguaggio dei diritti fondamentali con quello della tecnologia che ci distingue. Parallelamente, il nostro obiettivo è anche quello di essere un punto di riferimento europeo per le riflessioni di policy sull’intelligenza artificiale, contribuendo con paper, policy brief e partecipazione attiva ai tavoli di Bruxelles e delle istituzioni europee.
In che modo l’attività accademica si integrerà con questa iniziativa?
Per noi l’accademia non è un elemento accessorio, ma un pilastro del progetto. L’università è il luogo in cui si elaborano le categorie giuridiche e filosofiche, mentre l’advisory è il terreno in cui quelle categorie si mettono alla prova. AIdvisory si nutre di questa doppia linfa: il rigore del costituzionalismo europeo e della data protection, unito alla concretezza dell’esperienza maturata nelle aziende e nei contenziosi.