All’indomani dell’entrata in vigore dell’Artificial Intelligence Act europeo, le organizzazioni per i diritti digitali, tra cui Hermes Center, continuano a denunciare lacune significative nella tutela dei diritti umani. In particolare, tra le principali criticità spiccano le esenzioni per forze dell'ordine e autorità migratorie sul riconoscimento biometrico e la mancanza di requisiti di trasparenza. Ma non finisce qui. Anche le "smart cities", potenzialmente, potrebbero rappresentare un pericolo per i diritti umani digitali, perché integrano al loro interno tecnologie controverse e fallaci come il riconoscimento facciale e altri sistemi IA potenzialmente lesivi delle libertà individuali. L'uso crescente di queste tecnologie aumenta i rischi di discriminazione, specialmente per le comunità vulnerabili. La diffusione delle varie applicazione dell'IA ha inoltre facilitato la distribuzione dei deepfake, che prendono forma, tra gli altri, anche in ambiti come il revenge porn, amplificando le violazioni della privacy e della dignità personale e ponendo urgenti questioni etiche e legali. Insomma, per garantire un uso etico dell'intelligenza artificiale, è fondamentale un dibattito pubblico che bilanci i benefici con i rischi, proteggendo i diritti individuali e promuovendo una società giusta e inclusiva.