AICEC-ADICAE alerta: La regulació de la IA entra en una fase clau amb riscos per als consumidors si no hi ha un control efectiu.
Catalunya, en l’epicentre del debat sobre l’impacte de la IA en els consumidors.
Per protegir els consumidors dels riscos de la Intel·ligència Artificial (IA), la Unió Europea ha començat a regular-ne l’ús des del 2024. La nova normativa prohibeix certes pràctiques perilloses i, a partir de l’agost del 2025, imposarà normes estrictes per als sistemes d’IA més sensibles. AICEC-ADICAE adverteix que aquestes mesures només seran efectives si hi ha un control rigorós i sancions per a aquells que no les compleixin. A més, l’associació subratlla que l’educació en IA és fonamental perquè els consumidors la facin servir de manera segura i responsable.
Des del 2 de febrer de 2025 estan prohibides certes pràctiques d’IA considerades perilloses. Entre aquestes: fer servir IA per enganyar o manipular les persones (com els deepfakes o els algorismes que influeixen en decisions aprofitant biaixos); la publicitat que explota de manera excessiva les emocions; els ciberatacs automatitzats; els sistemes que puntuen les persones segons el seu comportament, com el crèdit social a la Xina; i la identificació biomètrica en espais públics per detectar característiques protegides, en temps real. Aquestes mesures tenen com a objectiu evitar que la IA s’utilitzi de manera abusiva i afecti les decisions de les persones sense que aquestes ho sàpiguen o hi hagin donat el seu consentiment.
A Catalunya, s’estan impulsant iniciatives per garantir l’ús ètic i responsable de la IA. Destaca la metodologia de l’Autoritat Catalana de Protecció de Dades (APDCAT) per avaluar l’impacte de la IA en els drets fonamentals, així com la creació de la Comissió d’Intel·ligència Artificial per part de la Generalitat, que supervisa la implementació d’aquesta tecnologia en els serveis públics, promovent la transparència i el respecte als drets de les persones.
L’establiment dels Codis de Bones Pràctiques estava previst per al 2 de maig de 2025, però s’ha avançat i ja està en marxa. Aquests codis pretenen oferir guies voluntàries per desenvolupar i utilitzar la IA de manera responsable, fomentant la transparència i el respecte als drets dels consumidors.
El pròxim pas important serà el 2 d’agost de 2025, quan començaran a aplicar-se les normes per als sistemes d’IA d’alt risc i els sistemes d’IA amb risc sistèmic.
Aquestes restriccions pretenen protegir els consumidors d’un ús abusiu de la IA que pugui afectar la seva privacitat i la seva capacitat de decisió. A Catalunya, on la tecnologia i la innovació digital avancen ràpidament, aquestes normes són especialment rellevants. Barcelona, com un dels principals hubs tecnològics d’Europa, haurà de vetllar perquè les seves empreses i administracions compleixin aquesta regulació per garantir un desenvolupament ètic de la IA.
Alguns sistemes d’IA es consideren d’alt risc perquè s’utilitzen en àmbits molt importants com l’ocupació, els serveis essencials i la justícia. Per exemple, hi ha IA que analitzen sol·licituds de visat o que ajuden a redactar resolucions judicials. També s’integren en infraestructures crítiques, com el transport. Com el cas dels sistemes que controlen el trànsit aeri i ferroviari, fan servir IA per millorar les rutes i els horaris. Tanmateix, una fallada en aquests sistemes podria provocar conseqüències greus.
Els sistemes d’IA de risc sistèmic són models amb un gran impacte, com ChatGPT, Gemini, Copilot o Siri. Tot i que no es consideren d’alt risc, tenen una gran capacitat de càlcul i influeixen en molts sectors. El seu ús creix ràpidament: a l’agost del 2024, ChatGPT va superar els 200 milions d’usuaris setmanals, duplicant els de l’any anterior. Google busca que Gemini arribi a 500 milions de persones a finals del 2025. Amb Apple Intelligence, Siri incorporarà funcions avançades per competir amb aquestes eines. L’ús massiu d’aquestes IA pot afectar l’opinió pública, influir en eleccions o generar desconfiança en la informació.
Aquests sistemes han de complir diverses obligacions, com ara avaluar el seu impacte sobre els drets fonamentals, portar un registre detallat sobre el seu funcionament, comptar amb supervisió humana i aplicar mesures per gestionar els riscos.
El 2 d’agost de 2025 també entrarà en vigor el sistema de sancions. Per aquest motiu, AICEC-ADICAE demana a l’Agència Espanyola de Supervisió de la Intel·ligència Artificial (AESIA) i als organismes europeus que posin en marxa controls eficaços i sancionin de manera justa les empreses que no siguin transparents.
AICEC-ADICAE continuarà atenta a l’evolució de la normativa i treballarà perquè els consumidors coneguin i aprofitin bé les eines d’Intel·ligència Artificial. Per a això, ofereix informació i recursos al seu portal: www.consumidordigital.org.
Segueix-nos a les nostres xarxes socials, Twitter, Facebook, Instagram o TikTok per accedir a contingut exclusiu, participar en debats rellevants i formar part d’una xarxa de persones compromeses amb la nostra causa. Uneix-te per compartir les teves idees i experiències!