via alle regole per le aziende


Più trasparenza sugli algoritmi, rispetto del diritto d’autore, supervisione umana generale e regole per garantire la cybersicurezza. Entra in vigore la stretta per le aziende sull’Intelligenza artificiale prevista dall’AI Act europeo. Le norme, scattate ufficialmente ieri, valgono per i grandi produttori di algoritmi (da Google e Meta a OpenAI), ma anche per banche, startup e chiunque crei o modifichi in modo algoritmi sostanziali open source per il proprio business.

Se non si rispettano le previsioni scattano molteplici (non prima del 2026) fino a 35 milioni o il 7% del fatturato. Le altre aziende dovranno verificare di usare sistemi IA di imprese produttrici che rispettano le norme Ue per evitare complicità (tecnicamente la “non conformità” alla direttiva comunitaria).

Opportunità uniche acquisto in asta

 ribassi fino al 70%

 

I fornitori di modelli di intelligenza artificiale dovranno rispettare il copyright delle informazioni che prelevano, speficicandone la provenienza, ma anche chiarire come funzionano gli algoritmi, seguendo apposite linee guida.

I CASI
Per i sistemi categorizzati come più pericolosi (“ad alto rischio”) vanno inviate notifiche all’apposito Ufficio IA dell’Unione europea e rispettate norme più stringenti sul controllo umano. Le informazioni sensibili non possono essere divulgate, salvo nei casi previsti dalla legge o con consenso dell’interessato. Chiunque poi usi chatbot o generatori di contenuti, dovrà dichiararlo apertamente ai clienti.

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta

 

Da ieri, 2 agosto, gli obblighi sono scattati per i nuovi modelli di intelligenza artificiale che verranno immessi sul mercato. Si dovrà aspettare due anni (dal 2 agosto 2027) per vedere eventuali multe sui sistemi già esistenti, a partire da ChatGpt. Dal 2 agosto 2026, invece, la Commissione europea acquisirà i poteri per vigilare sul rispetto degli obblighi attraverso le sanzioni, coordinando con l’Ufficio Ue per l’IA le varie autorità nazionali che stanno sorgendo nei 27 Stati membri per i controlli sugli algoritmi (per l’Italia, secondo l’apposito ddl che deve essere approvato definitivamente dal Senato, saranno l’Agenzia per l’Italia digitale e l’Agenzia per la cybersicurezza nazionale). Le multe più alte si applicano per la violazione dei divieti (ad esempio usando l’IA in modo manipolativo o per la sorveglianza indiscriminata). Per le violazioni dei requisiti sui sistemi ad alto rischio la sanzione arriva fino a 15 milioni o il 3% del fatturato. Per la fornitura di informazioni false o incomplete si arriva invece fino a 7,5 milioni o l’1% del fatturato. Pmi e startup beneficiano sempre della multa minore tra quelle previste.


© RIPRODUZIONE RISERVATA






Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Conto e carta

difficile da pignorare