A União Europeia (UE) posicionou-se na vanguarda da regulamentação tecnológica com a aprovação do AI Act (Lei de Inteligência Artificial). Esta legislação histórica, a primeira do género a nível mundial, visa estabelecer um quadro jurídico harmonizado para o desenvolvimento, comercialização e utilização de sistemas de Inteligência Artificial (IA) em todo o bloco. O principal objetivo é garantir que a IA utilizada na UE seja segura, confiável e respeite os direitos fundamentais dos cidadãos, ao mesmo tempo que fomenta a inovação.
O AI Act é um regulamento proposto pela Comissão Europeia que classifica os sistemas de IA com base no risco que podem representar para a sociedade. A lei define "sistema de IA" de forma ampla, como um software desenvolvido com uma ou mais técnicas e abordagens (como aprendizado de máquina, abordagens baseadas em lógica e conhecimento, e abordagens estatísticas) que pode, para um determinado conjunto de objetivos definidos por humanos, gerar resultados como conteúdo, previsões, recomendações ou decisões que influenciam os ambientes com os quais interage. Esta abordagem procura ser tecnologicamente neutra e preparada para o futuro, abrangendo os rápidos desenvolvimentos no campo da IA.
A legislação da UE sobre IA visa alcançar múltiplos objetivos cruciais. Primordialmente, busca assegurar um elevado nível de proteção da saúde, segurança e direitos fundamentais dos cidadãos europeus contra os potenciais riscos da IA. Outro objetivo fundamental é promover a adoção de uma IA confiável e ética. Adicionalmente, o AI Act pretende facilitar o desenvolvimento de um mercado único para aplicações de IA legais e seguras, evitando a fragmentação regulatória dentro da UE e impulsionando o investimento e a inovação.
Uma característica central do AI Act é a sua abordagem estratificada baseada no risco, que impõe diferentes níveis de obrigações e restrições dependendo do potencial impacto de um sistema de IA. Esta classificação divide os sistemas de IA em quatro categorias principais:
Estes são sistemas de IA que representam uma clara ameaça aos direitos fundamentais das pessoas e, por isso, são maioritariamente proibidos. Exemplos incluem sistemas de pontuação social por parte de governos, exploração de vulnerabilidades de grupos específicos (especialmente crianças) através de técnicas subliminares que levem a comportamentos perigosos, e certos usos de sistemas de identificação biométrica remota em tempo real em espaços acessíveis ao público para fins de aplicação da lei (com exceções estritas).
Os sistemas de IA classificados como de alto risco são aqueles que podem ter um impacto adverso significativo na segurança ou nos direitos fundamentais das pessoas. Estes sistemas estão sujeitos a requisitos rigorosos antes de poderem ser colocados no mercado e ao longo do seu ciclo de vida. As obrigações incluem a implementação de sistemas de gestão de risco, governação de dados e qualidade dos dados utilizados, documentação técnica, transparência para os utilizadores, supervisão humana e robustez, precisão e cibersegurança. Exemplos de aplicações de alto risco incluem IA em infraestruturas críticas (como transportes), educação e formação profissional, emprego e gestão de trabalhadores, acesso a serviços essenciais (públicos e privados), aplicação da lei, gestão da migração e controlo de fronteiras, e administração da justiça e processos democráticos.
Para sistemas de IA que representam um risco limitado, o AI Act foca-se principalmente em obrigações de transparência. Os utilizadores devem ser informados de que estão a interagir com um sistema de IA, a menos que tal seja óbvio pelo contexto. Isto aplica-se a sistemas como chatbots. Conteúdos gerados ou manipulados por IA (deepfakes) também devem ser rotulados como tal.
A grande maioria das aplicações de IA atualmente em uso na UE enquadra-se nesta categoria, como videojogos habilitados para IA ou filtros de spam. O AI Act não impõe obrigações adicionais para estes sistemas, embora os desenvolvedores possam optar por adotar códigos de conduta voluntariamente.
O AI Act terá um impacto significativo nas empresas que desenvolvem, fornecem ou utilizam sistemas de IA no mercado da UE, independentemente de onde estejam estabelecidas, devido ao seu alcance extraterritorial. As empresas com sistemas de IA de alto risco enfrentarão requisitos de conformidade mais exigentes, incluindo avaliações de conformidade e monitorização pós-comercialização. As penalidades por incumprimento podem ser substanciais, chegando a até 35 milhões de euros ou 7% do volume de negócios anual global da empresa, dependendo da infração. No entanto, a legislação também visa promover a inovação, fornecendo clareza jurídica e estabelecendo "sandboxes" regulatórias, que são ambientes controlados onde as empresas, especialmente PMEs e startups, podem testar sistemas de IA inovadores sob a supervisão das autoridades.
A proteção dos direitos fundamentais é um pilar do AI Act. A lei confere aos cidadãos o direito de apresentar queixas sobre sistemas de IA e de receber explicações sobre decisões tomadas por sistemas de alto risco que os afetem significativamente. Procura-se garantir a não discriminação, a privacidade e a proteção de dados pessoais. A exigência de transparência, especialmente em interações com IA e na identificação de conteúdo gerado artificialmente, também capacita os cidadãos.
O AI Act foi formalmente aprovado pelo Conselho da União Europeia em maio de 2024 e entrou em vigor em agosto de 2024. A sua aplicação será faseada ao longo dos próximos anos. As proibições de práticas de risco inaceitável começarão a aplicar-se mais cedo (normalmente 6 meses após a entrada em vigor), enquanto as regras para sistemas de IA de alto risco e modelos de IA de propósito geral terão períodos de transição mais longos (geralmente 12 a 36 meses). Os Estados-Membros terão de designar autoridades nacionais de supervisão e será estabelecido um Gabinete Europeu de IA (AI Office) para garantir a aplicação coordenada a nível da UE. A Comissão Europeia também lançou o "Pacto para a IA", uma iniciativa voluntária para encorajar os fornecedores de IA a antecipar e implementar os requisitos do AI Act antes dos prazos legais.
O AI Act da União Europeia representa um marco legislativo ambicioso e abrangente, procurando equilibrar a promoção da inovação em inteligência artificial com a salvaguarda dos valores e direitos fundamentais europeus. Ao adotar uma abordagem baseada no risco, a UE espera fomentar a confiança na IA e posicionar-se como líder global na definição de padrões para uma IA ética e centrada no ser humano. O seu impacto será sentido globalmente, influenciando a forma como as empresas desenvolvem e implementam tecnologias de IA e, potencialmente, servindo de modelo para outras jurisdições, incluindo o Brasil, que também debate a sua própria regulamentação para a IA.
Descubra o universo do chat openai, sua tecnologia revolucionária, aplicações, impacto na sociedade e as limitações. Entenda o futuro da IA generativa e seu papel transformador.
Aprenda como perguntar ao ChatGPT de forma eficaz com este guia completo. Descubra técnicas e dicas para obter respostas precisas e úteis da IA da OpenAI.
Descubra como saber se um texto foi feito no ChatGPT, explorando sinais, ferramentas de detecção e a importância da análise humana para identificar conteúdo gerado por IA.