{"id":24518,"date":"2026-04-14T03:05:36","date_gmt":"2026-04-14T01:05:36","guid":{"rendered":"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/"},"modified":"2026-04-14T03:05:36","modified_gmt":"2026-04-14T01:05:36","slug":"quando-lalgoritmo-sbaglia-chi-paga","status":"publish","type":"post","link":"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/","title":{"rendered":"Quando l\u2019algoritmo sbaglia, chi paga?"},"content":{"rendered":"<div>\n<div style=\"margin: 5px 5% 10px 5%;\"><img loading=\"lazy\" src=\"https:\/\/i1.wp.com\/static.tecnichenuove.it\/ilprogettistaindustriale\/2026\/04\/Screenshot-2026-04-13-alle-10.19.54.png?resize=750%2C309&#038;ssl=1\" width=\"750\" height=\"309\" title=\"\" alt=\"\" data-recalc-dims=\"1\"><\/div>\n<div>\n<p><strong>L\u2019intelligenza artificiale \u00e8 ormai parte integrante della progettazione industriale, ma l\u2019aumento dell\u2019autonomia dei sistemi rende pi\u00f9 complessa la gestione delle responsabilit\u00e0. Quando un algoritmo incide su scelte tecniche o parametri di sicurezza, le conseguenze non sono solo operative: coinvolgono responsabilit\u00e0 professionali, organizzative ed economiche.<\/strong><strong><\/strong><\/p>\n<p>L\u2019intelligenza artificiale non \u00e8 pi\u00f9 una tecnologia sperimentale confinata ai centri di ricerca. Oggi \u00e8 presente nei sistemi di progettazione assistita, negli strumenti di simulazione, nei modelli digitali di prodotto, nella manutenzione preventiva e nella pianificazione della produzione. La sua integrazione nei processi di progettazione industriale \u00e8 sempre pi\u00f9 stretta. Algoritmi addestrati su grandi quantit\u00e0 di dati supportano scelte geometriche, calcoli, ottimizzazioni e valutazioni tecniche. A questo punto la domanda non \u00e8 pi\u00f9 se utilizzarla, ma chi risponde quando il sistema sbaglia.<\/p>\n<p>Negli scorsi numeri della rivista si \u00e8 parlato di intelligenza artificiale generativa e di sistemi autonomi. Nel caso degli strumenti generativi, il quadro \u00e8 relativamente chiaro: il sistema fornisce un supporto, ma la decisione resta al progettista. L\u2019algoritmo propone, l\u2019ingegnere verifica e firma. Pi\u00f9 complessa \u00e8 la situazione quando si tratta di sistemi capaci di agire o adattarsi in tempo reale. Se l\u2019intelligenza artificiale regola parametri di processo, modifica comportamenti operativi o interagisce direttamente con macchine e persone, la responsabilit\u00e0 non riguarda solo l\u2019uso dello strumento. Coinvolge la progettazione dell\u2019intero sistema: architettura, limiti operativi, controlli e modalit\u00e0 di intervento umano.<\/p>\n<p>Non \u00e8 un problema teorico. Se un algoritmo genera una distinta base errata, propone una configurazione non conforme alle norme oppure influenza in modo improprio la scelta di un fornitore o di un parametro di sicurezza, la responsabilit\u00e0 non \u00e8 soltanto tecnica. Diventa anche organizzativa e professionale, con possibili conseguenze economiche e reputazionali.<\/p>\n<p><strong>Il nuovo quadro normativo europeo<\/strong><\/p>\n<p>L\u2019Unione Europea ha risposto alla diffusione dell\u2019intelligenza artificiale con un regolamento che incide direttamente anche sul settore industriale. L\u2019AI Act introduce una disciplina organica basata su un principio familiare a ogni ingegnere: la gestione del rischio. I sistemi non sono trattati tutti allo stesso modo. Il regolamento distingue tra applicazioni vietate, applicazioni a rischio limitato e sistemi ad alto rischio, per i quali sono previsti obblighi tecnici e organizzativi stringenti.<\/p>\n<p>Per le imprese manifatturiere e per chi si occupa di progettazione, il punto centrale \u00e8 proprio la categoria dei sistemi ad alto rischio. Rientrano in questa classe le applicazioni che incidono sulla sicurezza dei prodotti e delle persone, sul funzionamento di macchine e impianti, sulla gestione di infrastrutture critiche o sull\u2019organizzazione del lavoro. In ambito industriale ci\u00f2 pu\u00f2 riguardare sistemi che supportano la progettazione di componenti strutturali, algoritmi che regolano parametri di processo con impatto sulla sicurezza o applicazioni integrate nei sistemi di controllo.<\/p>\n<p>Il regolamento richiede che tali sistemi siano sviluppati e gestiti secondo un processo strutturato di analisi e riduzione del rischio lungo tutto il ciclo di vita. Non basta utilizzare un software evoluto: occorre dimostrare come il sistema \u00e8 stato progettato, quali dati sono stati impiegati, quali verifiche sono state effettuate e con quali risultati. Devono essere garantite la qualit\u00e0 dei dati, la tracciabilit\u00e0 delle operazioni e la possibilit\u00e0 di intervento umano in caso di comportamento non conforme.<\/p>\n<p>Per il progettista industriale questo significa integrare l\u2019intelligenza artificiale nel quadro gi\u00e0 noto della sicurezza di prodotto. Se un algoritmo contribuisce a definire una geometria, a validare una simulazione o a determinare un parametro critico, entra nel perimetro della responsabilit\u00e0 progettuale. Non \u00e8 un elemento esterno, ma parte del sistema tecnico.<\/p>\n<p>La documentazione tecnica assume quindi un ruolo centrale. Il fascicolo di progetto deve includere anche le informazioni relative al funzionamento dell\u2019algoritmo, ai criteri adottati, alle prove effettuate e ai limiti di utilizzo. \u00c8 un\u2019estensione delle pratiche gi\u00e0 consolidate nella validazione di componenti e sistemi, applicata ora anche ai modelli matematici che influenzano le decisioni.<\/p>\n<p>Le scadenze applicative previste entro il 2026 rendono questo adeguamento concreto e non rinviabile. Il rischio, soprattutto per le piccole e medie imprese, non \u00e8 soltanto la mancata conformit\u00e0, ma l\u2019introduzione disordinata di strumenti generativi o predittivi nei flussi di progettazione e simulazione senza una revisione dei processi. In questi casi si creano aree non presidiate: decisioni non tracciate, verifiche non formalizzate, responsabilit\u00e0 non chiaramente definite.<\/p>\n<p>La conseguenza \u00e8 duplice. Si perde efficacia tecnica, perch\u00e9 l\u2019innovazione resta episodica. E si aumenta l\u2019esposizione al rischio, perch\u00e9 le scelte progettuali non sono sostenute da un sistema di controllo adeguato. L\u2019intelligenza artificiale, per il progettista, non \u00e8 un semplice aggiornamento tecnologico. \u00c8 una trasformazione che richiede metodo, controllo e responsabilit\u00e0.<\/p>\n<p><strong>Due regolamenti, un unico sistema tecnico<\/strong><\/p>\n<p>Accanto all\u2019AI Act, chi progetta macchine deve confrontarsi con il Regolamento Macchine 2023\/1230, che disciplina la sicurezza prima dell\u2019immissione sul mercato europeo. Il punto critico \u00e8 che, nella pratica industriale, i due ambiti non sono separati. Quando un sistema di intelligenza artificiale \u00e8 integrato in una macchina e ne influenza il comportamento, l\u2019algoritmo diventa parte del sistema tecnico.<\/p>\n<p>Se il software incide su una funzione di sicurezza, non \u00e8 pi\u00f9 un elemento accessorio. Entra nel perimetro della responsabilit\u00e0 progettuale. Il nuovo Regolamento Macchine tiene conto di questa evoluzione e richiama l\u2019attenzione sui programmi che svolgono funzioni di sicurezza, sui sistemi che possono modificare il proprio comportamento nel tempo, sulle interazioni avanzate tra uomo e macchina e sugli aggiornamenti che possono alterare le prestazioni dopo la messa in servizio.<\/p>\n<p>Gli esempi sono concreti. Un sistema di visione che arresta una macchina in presenza di un operatore, un algoritmo che regola automaticamente parametri di processo con impatto sulla sicurezza, un sistema collaborativo che adatta i movimenti in funzione dell\u2019ambiente: in tutti questi casi l\u2019effetto sulla sicurezza \u00e8 diretto. Il progettista deve quindi applicare i requisiti essenziali del Regolamento Macchine e, se il sistema rientra tra quelli ad alto rischio, anche gli obblighi previsti dall\u2019AI Act.<\/p>\n<p>Questo comporta un\u2019estensione dell\u2019analisi dei rischi. Non basta valutare componenti meccanici, parti elettriche o logiche di comando tradizionali. Occorre esaminare il comportamento dell\u2019algoritmo, la qualit\u00e0 dei dati utilizzati, la possibilit\u00e0 di variazioni nel tempo e le condizioni in cui il sistema potrebbe generare risposte non corrette. La coerenza tra modello teorico e comportamento reale diventa un elemento di verifica tecnica.<\/p>\n<p>Anche il fascicolo tecnico deve riflettere questa integrazione. Oltre a disegni, calcoli e schemi funzionali, devono essere documentati criteri di progettazione dell\u2019algoritmo, prove effettuate, limiti operativi e modalit\u00e0 di controllo umano. Se il sistema \u00e8 classificato ad alto rischio, occorre inoltre dimostrare l\u2019esistenza di un processo strutturato di gestione del rischio lungo tutto il ciclo di vita.<\/p>\n<p>Il principio \u00e8 semplice: se l\u2019intelligenza artificiale incide sulla sicurezza, \u00e8 parte della funzione di sicurezza. Deve quindi essere progettata, verificata e documentata con lo stesso rigore richiesto per un sistema di comando critico. Non \u00e8 solo una questione normativa, ma una responsabilit\u00e0 tecnica.<\/p>\n<p><strong>Dalla compliance difensiva alla governance del rischio algoritmico<\/strong><\/p>\n<p>Dal punto di vista di un ingegnere, il tema non \u00e8 solo rispettare una norma, ma mantenere il controllo di sistemi tecnici sempre pi\u00f9 complessi. In questo contesto emerge la figura del responsabile della conformit\u00e0 dei sistemi di intelligenza artificiale. Non \u00e8 un controllore che interviene a posteriori, ma un profilo tecnico con visione d\u2019insieme, capace di collegare requisiti normativi, scelte progettuali e obiettivi industriali.<\/p>\n<p>Il suo compito \u00e8 tradurre gli obblighi regolatori in procedure operative integrate nei processi aziendali. Significa definire criteri di verifica, modalit\u00e0 di analisi dei rischi e controlli tecnici coerenti con l\u2019uso dell\u2019intelligenza artificiale. Non per rallentare l\u2019innovazione, ma per introdurla con lo stesso rigore con cui si qualificano componenti, impianti o sistemi di automazione.<\/p>\n<p>Nel ciclo di vita di un sistema di intelligenza artificiale applicato alla progettazione o alla produzione, questo ruolo interviene fin dall\u2019inizio. Si valuta il livello di rischio dell\u2019applicazione, si strutturano le modalit\u00e0 di analisi e riduzione dei rischi, si verifica la qualit\u00e0 dei dati impiegati, si controllano le procedure di validazione dei risultati. A ci\u00f2 si aggiungono la predisposizione della documentazione tecnica e il monitoraggio delle prestazioni nel tempo, con attenzione agli scostamenti rispetto alle condizioni previste in fase di progetto.<\/p>\n<p>L\u2019obiettivo \u00e8 superare un approccio reattivo, basato sull\u2019intervento dopo l\u2019errore. Il governo del rischio algoritmico diventa parte del sistema qualit\u00e0 e del processo di progettazione. Non \u00e8 un adempimento formale, ma uno strumento per garantire affidabilit\u00e0, coerenza tecnica e continuit\u00e0 operativa.<\/p>\n<p><strong>Il nodo della responsabilit\u00e0: errore tecnico o errore sistemico?<\/strong><\/p>\n<p>Nella progettazione industriale l\u2019errore non \u00e8 mai marginale. Una scelta sbagliata pu\u00f2 generare non conformit\u00e0, difetti di prodotto, problemi di sicurezza o perdite economiche significative. La responsabilit\u00e0 del progettista si \u00e8 sempre misurata su questo terreno.<\/p>\n<p>Con l\u2019intelligenza artificiale il perimetro si amplia. L\u2019errore non deriva solo da una valutazione umana errata, ma pu\u00f2 essere legato ai dati utilizzati, ai criteri di addestramento, alla logica interna del modello o alla mancanza di controlli adeguati. Un sistema pu\u00f2 fornire risultati formalmente coerenti ma tecnicamente non corretti. Pu\u00f2 basarsi su dati non rappresentativi. Pu\u00f2 produrre soluzioni difficili da ricostruire a posteriori. Se tali risultati vengono riutilizzati senza una verifica strutturata, l\u2019errore si propaga lungo il processo di sviluppo.<\/p>\n<p>Nelle piccole e medie imprese la situazione \u00e8 ancora pi\u00f9 delicata. Le strutture organizzative sono spesso essenziali, le competenze non sempre integrate e le procedure di controllo non formalizzate. In caso di errore diventa meno chiaro dove si collochi la responsabilit\u00e0: nel consulente che ha introdotto il sistema, nel fornitore del programma o nell\u2019impresa che lo ha adottato.<\/p>\n<p>Il responsabile della conformit\u00e0 dei sistemi di intelligenza artificiale si trova quindi a operare in un contesto complesso. Non deve solo verificare la correttezza tecnica del modello, ma accertare che l\u2019organizzazione sia in grado di comprenderne il funzionamento, controllarne l\u2019uso e documentarne le decisioni. Il rischio, in questo quadro, non riguarda soltanto l\u2019algoritmo. Riguarda la struttura aziendale nel suo insieme.<\/p>\n<p><strong>Conclusioni<\/strong><\/p>\n<p>Per chi progetta sistemi industriali, il primo passo \u00e8 semplice: capire che tipo di sistema si sta utilizzando e se rientra tra quelli classificati ad alto rischio. Da qui discende tutto il resto. Occorre garantire che le decisioni supportate dall\u2019algoritmo siano tracciabili, che il percorso tecnico sia ricostruibile e che ogni risultato rilevante venga sottoposto a verifiche formalizzate all\u2019interno del sistema qualit\u00e0 aziendale.<\/p>\n<p>L\u2019intelligenza artificiale non pu\u00f2 essere utilizzata come scorciatoia operativa. Deve essere inserita in un processo controllato, con responsabilit\u00e0 chiaramente definite. Se una scelta progettuale \u00e8 stata influenzata da un sistema algoritmico, deve essere possibile dimostrare chi ha verificato, chi ha approvato e su quali basi tecniche. In questa prospettiva, la conformit\u00e0 non \u00e8 un adempimento burocratico. \u00c8 parte integrante del metodo progettuale. Serve a garantire affidabilit\u00e0, coerenza tecnica e solidit\u00e0 nel tempo.<\/p>\n<p>La domanda iniziale, tuttavia, non \u00e8 accademica. Se un errore generato o non intercettato dall\u2019intelligenza artificiale provoca un danno a un cliente, causa un fermo impianto o comporta un richiamo di prodotto, le conseguenze sono concrete. Possono tradursi in responsabilit\u00e0 contrattuali, richieste risarcitorie e problemi di copertura assicurativa. Con l\u2019AI Act, la capacit\u00e0 di dimostrare di aver adottato un sistema strutturato di gestione del rischio, di aver effettuato verifiche adeguate e di aver mantenuto il controllo umano diventa un elemento decisivo.<\/p>\n<p>Quando l\u2019algoritmo sbaglia, non paga l\u2019algoritmo. Paga l\u2019organizzazione che lo ha progettato, integrato e validato. Per il progettista industriale la questione \u00e8 quindi chiara: non si tratta di temere l\u2019intelligenza artificiale, ma di progettarla con lo stesso rigore con cui si progetta una macchina.<\/p>\n<\/div>\n<p>L&#8217;articolo <a href=\"https:\/\/www.ilprogettistaindustriale.it\/quando-lalgoritmo-sbaglia-chi-paga\/\">Quando l\u2019algoritmo sbaglia, chi paga?<\/a> sembra essere il primo su <a href=\"https:\/\/www.ilprogettistaindustriale.it\/\">Il Progettista Industriale<\/a>.<\/p>\n<\/div>\n<p><a href=\"https:\/\/www.ilprogettistaindustriale.it\/quando-lalgoritmo-sbaglia-chi-paga\/\">Vai alla fonte.<\/a><\/p>\n<p>Autore: Emanuela Bianchi<\/p>\n<p class=\"wpematico_credit\"><small>Powered by <a href=\"http:\/\/www.wpematico.com\" target=\"_blank\" rel=\"noopener noreferrer\">WPeMatico<\/a><\/small><\/p>\n<p><strong>_________________________________<\/strong><\/p>\n<p><strong>CFD FEA Service SRL<\/strong> &egrave; una societ&agrave; di servizi che offre <em>consulenza<\/em> e <em>formazione<\/em> in ambito <strong>ingegneria<\/strong> e <strong>IT<\/strong>. Se questo post\/prodotto ti &egrave; piaciuto ti invitiamo a:<\/p>\n<ul>\n<li>visionare il nostro <a href=\"https:\/\/cfdfeaservice.it\/index.php\/blog\/\" target=\"_blank\" rel=\"noopener\">blog<\/a><\/li>\n<li>visionare i <a href=\"https:\/\/cfdfeaservice.it\/index.php\/prodotti\/\" target=\"_blank\" rel=\"noopener\">software<\/a> disponibili - anche per la formazione<\/li>\n<li>iscriverti alla nostra newsletter<\/li>\n<li>entrare in contatto con noi attraverso la <a href=\"https:\/\/cfdfeaservice.it\/#ribbon\" target=\"_blank\" rel=\"noopener\">pagina contatti<\/a><\/li>\n<\/ul>\n<p>Saremo lieti di seguire le tue richieste e fornire risposte alle tue domande.<\/p>","protected":false},"excerpt":{"rendered":"<p>L\u2019intelligenza artificiale \u00e8 ormai parte integrante della progettazione industriale, ma l\u2019aumento dell\u2019autonomia dei sistemi rende pi\u00f9 complessa la gestione delle responsabilit\u00e0. Quando un algoritmo incide su scelte tecniche o parametri di sicurezza, le conseguenze non sono solo operative: coinvolgono responsabilit\u00e0 professionali, organizzative ed economiche. L\u2019intelligenza artificiale non \u00e8 pi\u00f9 una [&hellip;]<\/p>\n","protected":false},"author":8,"featured_media":24519,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"spay_email":""},"categories":[57],"tags":[],"jetpack_featured_media_url":"https:\/\/i2.wp.com\/test.cfdfeaservice.it\/wp-content\/uploads\/2026\/04\/Screenshot-2026-04-13-alle-10.19.54.png?fit=1186%2C488&ssl=1","yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v15.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Quando l\u2019algoritmo sbaglia, chi paga? - CFD FEA\/FEM Service<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/\" \/>\n<meta property=\"og:locale\" content=\"en_GB\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Quando l\u2019algoritmo sbaglia, chi paga? - CFD FEA\/FEM Service\" \/>\n<meta property=\"og:description\" content=\"L\u2019intelligenza artificiale \u00e8 ormai parte integrante della progettazione industriale, ma l\u2019aumento dell\u2019autonomia dei sistemi rende pi\u00f9 complessa la gestione delle responsabilit\u00e0. Quando un algoritmo incide su scelte tecniche o parametri di sicurezza, le conseguenze non sono solo operative: coinvolgono responsabilit\u00e0 professionali, organizzative ed economiche. L\u2019intelligenza artificiale non \u00e8 pi\u00f9 una [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/\" \/>\n<meta property=\"og:site_name\" content=\"CFD FEA\/FEM Service\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/cfdfeaservice\" \/>\n<meta property=\"article:published_time\" content=\"2026-04-14T01:05:36+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/static.tecnichenuove.it\/ilprogettistaindustriale\/2026\/04\/Screenshot-2026-04-13-alle-10.19.54.png\" \/>\n<meta name=\"twitter:card\" content=\"summary\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Organization\",\"@id\":\"https:\/\/test.cfdfeaservice.it\/#organization\",\"name\":\"CFD FEA SERVICE SRL\",\"url\":\"https:\/\/test.cfdfeaservice.it\/\",\"sameAs\":[\"https:\/\/www.facebook.com\/cfdfeaservice\",\"https:\/\/www.linkedin.com\/company\/11421185\/\",\"https:\/\/www.youtube.com\/channel\/UCr2h1DbpsNDKJSBAgeWMbfA\"],\"logo\":{\"@type\":\"ImageObject\",\"@id\":\"https:\/\/test.cfdfeaservice.it\/#logo\",\"inLanguage\":\"en-GB\",\"url\":\"https:\/\/i2.wp.com\/test.cfdfeaservice.it\/wp-content\/uploads\/2018\/07\/CFD-FEA-SERVICE-Compact.png?fit=677%2C178&ssl=1\",\"width\":677,\"height\":178,\"caption\":\"CFD FEA SERVICE SRL\"},\"image\":{\"@id\":\"https:\/\/test.cfdfeaservice.it\/#logo\"}},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/test.cfdfeaservice.it\/#website\",\"url\":\"https:\/\/test.cfdfeaservice.it\/\",\"name\":\"CFD FEA\/FEM Service\",\"description\":\"Servizi di ingegneria 4.0\",\"publisher\":{\"@id\":\"https:\/\/test.cfdfeaservice.it\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":\"https:\/\/test.cfdfeaservice.it\/?s={search_term_string}\",\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"en-GB\"},{\"@type\":\"ImageObject\",\"@id\":\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/#primaryimage\",\"inLanguage\":\"en-GB\",\"url\":\"https:\/\/i2.wp.com\/test.cfdfeaservice.it\/wp-content\/uploads\/2026\/04\/Screenshot-2026-04-13-alle-10.19.54.png?fit=1186%2C488&ssl=1\",\"width\":1186,\"height\":488},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/#webpage\",\"url\":\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/\",\"name\":\"Quando l\\u2019algoritmo sbaglia, chi paga? - CFD FEA\/FEM Service\",\"isPartOf\":{\"@id\":\"https:\/\/test.cfdfeaservice.it\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/#primaryimage\"},\"datePublished\":\"2026-04-14T01:05:36+00:00\",\"dateModified\":\"2026-04-14T01:05:36+00:00\",\"inLanguage\":\"en-GB\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/\"]}]},{\"@type\":\"Article\",\"@id\":\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/#webpage\"},\"author\":{\"@id\":\"https:\/\/test.cfdfeaservice.it\/#\/schema\/person\/c3b6ebdd7f80794fe6e6657f2f5335e7\"},\"headline\":\"Quando l\\u2019algoritmo sbaglia, chi paga?\",\"datePublished\":\"2026-04-14T01:05:36+00:00\",\"dateModified\":\"2026-04-14T01:05:36+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/#webpage\"},\"publisher\":{\"@id\":\"https:\/\/test.cfdfeaservice.it\/#organization\"},\"image\":{\"@id\":\"https:\/\/test.cfdfeaservice.it\/index.php\/2026\/04\/14\/quando-lalgoritmo-sbaglia-chi-paga\/#primaryimage\"},\"articleSection\":\"Normativa\",\"inLanguage\":\"en-GB\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/test.cfdfeaservice.it\/#\/schema\/person\/c3b6ebdd7f80794fe6e6657f2f5335e7\",\"name\":\"CFD FEA SERVICE\",\"image\":{\"@type\":\"ImageObject\",\"@id\":\"https:\/\/test.cfdfeaservice.it\/#personlogo\",\"inLanguage\":\"en-GB\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/a34dbcf675cd4152f1184664b3adcb72?s=96&d=mm&r=g\",\"caption\":\"CFD FEA SERVICE\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","jetpack_shortlink":"https:\/\/wp.me\/p9JrPq-6ns","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/posts\/24518"}],"collection":[{"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/users\/8"}],"replies":[{"embeddable":true,"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/comments?post=24518"}],"version-history":[{"count":0,"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/posts\/24518\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/media\/24519"}],"wp:attachment":[{"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/media?parent=24518"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/categories?post=24518"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/test.cfdfeaservice.it\/index.php\/wp-json\/wp\/v2\/tags?post=24518"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}