regulamentação da IA

Equilibrando a inovação e a regulamentação da IA: o impacto potencial nas empresas e profissionais de segurança

A regulamentação da IA, é um assunto global e que tem se tornado uma pauta em todo o território e estão evoluindo rapidamente. A Comissão Europeia liderou a iniciativa em 2021, ao propor a Lei da IA da UE, o primeiro quadro regulamentar da União Europeia que estabelece orientações claras para as empresas que desenvolvem e implementam sistemas de IA com base no nível de risco que representam. A UE chegou a um acordo oficial sobre as regras da Lei da IA em dezembro de 2023.

Escrito por Delano de Valença

Embora os EUA não disponham atualmente de regulamentações abrangentes, provavelmente seguirão o exemplo da UE em breve, à medida que aumentar a pressão para regulamentar a IA. Para a indústria de segurança, o aumento da regulamentação da IA terá um impacto significativo na forma como os fornecedores e utilizadores de tecnologia aproveitam a aprendizagem automática e outras capacidades de IA em produtos e serviços.

Como a União Europeia esta cuidando da regulamentação da IA

O quadro da UE baseado no risco para a regulamentação da IA visa apoiar uma inteligência artificial viável que seja segura, transparente e respeite a legislação existente em matéria de direitos humanos fundamentais. De acordo com a lei proposta, que será potencialmente aplicada já em 2025, os sistemas de IA são categorizados em quatro níveis de risco – baixo ou mínimo, limitado, alto e inaceitável – com requisitos e restrições aumentando de acordo com cada nível. Antes da implantação, as aplicações de IA de maior risco devem passar por uma avaliação de conformidade, cumprindo uma série de requisitos, incluindo gestão de riscos, testes, robustez técnica, formação e governação de dados, transparência, supervisão humana e segurança cibernética.

Ao adotar uma abordagem proporcional baseada no potencial impacto negativo, a UE procura restringir as aplicações prejudiciais de IA, permitindo ao mesmo tempo o florescimento dos casos de utilização mais benéficos. Os desenvolvedores de IA de baixo risco também devem cumprir obrigações de transparência para informar os usuários quando eles estão interagindo com chatbots ou sistemas de IA que geram ou manipulam conteúdo de imagem, áudio ou vídeo. O alinhamento entre inovação e responsabilidade está no cerne da visão regulamentar da Europa. E embora os Estados Unidos explorem as suas próprias políticas federais, provavelmente gravitarão em torno de um modelo semelhante baseado no risco.

IA na indústria de segurança

As tecnologias de IA e aprendizado de máquina tornaram-se parte integrante de muitas aplicações e serviços no setor de segurança. A adoção destas tecnologias em segurança continua a aumentar rapidamente à medida que o desempenho destas tecnologias melhora e surgem novas aplicações. A capacidade de extrair insights de grandes quantidades de dados proporciona às equipes de segurança maior conscientização sobre riscos e eventos.

A análise de vídeo depende da IA para tarefas como reconhecimento de padrões, reconhecimento facial, classificação de objetos e detecção de anomalias em dados de vídeo. Câmeras inteligentes equipadas com aprendizado de máquina podem identificar ameaças e comportamentos suspeitos em tempo real. A IA também revela insights valiosos de dados de segurança por meio de técnicas como análise preditiva. As tecnologias de IA estão encontrando casos de uso em controle de acesso, segurança de vídeo, sistemas de alarme e muito mais.

Embora regulamentações mais rigorosas possam aumentar os custos associados ao desenvolvimento, teste e monitorização de sistemas de IA, políticas bem elaboradas levarão a indústria de segurança a adotar práticas de IA mais responsáveis que considerem a ética e os potenciais danos. Isto beneficiará clientes, indivíduos e empresas a longo prazo, uma vez que os potenciais impactos negativos serão minimizados. As regulamentações também podem melhorar a confiança do público e a adoção de soluções de IA à medida que as tecnologias se tornam mais responsáveis, justas e transparentes no seu funcionamento e decisões.

Como as empresas podem se preparar?

Para se prepararem para as regulamentações iminentes sobre IA, as empresas de segurança devem acompanhar a implementação da Lei de IA da UE e começar a antecipar políticas semelhantes nos Estados Unidos. Investir agora em processos para o desenvolvimento de IA responsável, apoiados em testes robustos, práticas de dados responsáveis e monitoramento contínuo, facilitará a transição mais tarde.

No atual ambiente de regulamentação tecnológica emergente, seria prudente que qualquer empresa de desenvolvimento de IA alinhasse os seus processos de desenvolvimento com estes quatro pilares como uma estrutura responsável:

Segurança e privacidade por design e padrão

Ao criar sistemas de IA, os desenvolvedores devem priorizar a privacidade e a segurança do usuário desde o início. Esta abordagem está descrita no Artigo 25 do GDPR, que exige proteção de dados desde a concepção e por padrão. Significa incorporar salvaguardas na tecnologia para proteger os dados pessoais, limitar a recolha e utilização de dados e garantir práticas éticas. O objetivo é criar uma IA que respeite a privacidade e ao mesmo tempo funcione corretamente.

Direitos humanos desde a concepção

Ao criar sistemas de IA, os criadores devem avaliar o impacto potencial nos direitos humanos e incluir salvaguardas na tecnologia para evitar consequências negativas. Esta abordagem de direitos humanos desde a conceção envolve ser transparente sobre a forma como os sistemas de IA tomam decisões que afetam a vida das pessoas e identificar proativamente quaisquer riscos para direitos como a privacidade, a liberdade de expressão ou o tratamento justo. O objetivo é criar uma IA que respeite os princípios dos direitos humanos desde o início do processo de design.

Transparência

A transparência da IA ajuda a garantir que todas as partes interessadas – incluindo utilizadores, reguladores e a sociedade em geral – possam compreender claramente o funcionamento interno e os processos de tomada de decisão de um sistema de IA. Envolve ser aberto sobre como o sistema foi desenvolvido, como foi treinado, quais dados são usados e como os resultados são alcançados. Procedimentos transparentes de desenvolvimento de IA são cruciais para defender os princípios de uma tecnologia responsável e segura e de respeito pelos direitos humanos.

Justiça e inclusão

Justiça na IA responsável significa garantir que a tecnologia funcione igualmente bem para todas as pessoas, independentemente das características individuais ou do grupo, como raça, sexo, idade ou situação de deficiência. Isto requer testar proativamente os sistemas para detectar resultados tendenciosos ou discriminatórios contra grupos marginalizados e conceber modelos de IA que tenham em conta a diversidade desde o início. Considerar a inclusão também significa tornar a IA acessível e útil para pessoas com diversas capacidades.

Pontos de ação para os desenvolvedores

Aqui estão alguns pontos de ação importantes que os desenvolvedores podem começar a fazer agora em preparação:

  • Avalie cuidadosamente as fontes de dados e o processamento em busca de preconceitos ou outros problemas de discriminação que possam se propagar por meio de modelos de aprendizado de máquina.
  • Invista em testes e validação rigorosos de modelos antes da implantação e monitore-os continuamente após o lançamento.
  • Desenvolva processos bem documentados para que a IA responsável demonstre responsabilidade.
  • Trate a supervisão em evolução como uma oportunidade para experimentação e diferenciação ética e para ficar à frente das regulamentações de IA como líder na área.

Em geral, as empresas de soluções de IA precisam adotar uma abordagem de desenvolvimento de responsabilidade desde a concepção, construindo ética, justiça e transparência logo no início do processo de concepção. As empresas também devem explorar parcerias com universidades, organizações sem fins lucrativos e fornecedores dedicados à IA responsável para ajudar a facilitar o diálogo e a sensibilização regulamentares.

A implementação de processos internos robustos leva a uma preparação eficaz, mas também evita riscos desnecessários. A combinação de inovação e responsabilidade atinge o equilíbrio certo. Procure formas criativas de agregar valor com IA, respeitando os limites dos direitos humanos e servindo o bem público. A manutenção de tal visão manterá as empresas de segurança competitivas face às mudanças regulamentares que se avizinham.

Equilibrando Inovação e Responsabilidade

As regulamentações dos EUA sobre sistemas de IA são iminentes. Em 30 de outubro de 2023, o presidente Joe Biden assinou uma Ordem Executiva sobre o Desenvolvimento e Uso Seguro, Protegido e Confiável de Inteligência Artificial. Resumidamente, o pedido realiza três ações principais:

  • Estabelece uma Declaração de Direitos da IA que estabelece princípios sobre como os sistemas de IA devem ser concebidos, desenvolvidos e utilizados para respeitar os direitos civis das pessoas e proteger a sua privacidade e dados.
  • Orienta as agências federais a avaliar os riscos da IA, estabelecer padrões para uma IA confiável e publicar relatórios sobre como estão usando e protegendo contra o uso indevido da IA.
  • Cria um grupo de trabalho interagências sobre IA para coordenar esforços entre agências federais e compartilhar melhores práticas para segurança, ética e supervisão de IA.

Em linha com a legislação de outros países, as principais ações desta Ordem Executiva dos EUA centram-se na proteção dos direitos e da privacidade das pessoas, exigindo que as agências federais sejam mais transparentes e responsáveis na sua utilização da IA e melhorando a coordenação da política de IA em todo o governo.

Oportunidades na nova era da regulamentação da IA

Embora as novas regulamentações exijam mudanças na forma como a IA é construída, testada, validada e monitorizada, isso não precisa reprimir o progresso. Ao implementar proativamente práticas fortes e responsáveis de IA em todo o processo de desenvolvimento, as empresas podem continuar a ultrapassar limites, ao mesmo tempo que dão prioridade à transparência e à responsabilização.

Os regulamentos sobre IA emergentes na UE e nos Estados Unidos sinalizam um foco em garantir que os sistemas de IA sejam confiáveis, seguros e desenvolvidos de forma responsável, com atenção à mitigação de danos. Para os utilizadores de tecnologias de segurança, isto significa potencialmente mais transparência por parte dos criadores sobre a forma como os sistemas de IA foram construídos, as suas limitações e as salvaguardas implementadas. Os usuários poderão ver ferramentas aprimoradas que respeitam melhor a privacidade e as proteções das liberdades civis.

Conclusão

Para promover uma IA eficaz e responsável, os utilizadores devem comunicar as suas necessidades e preocupações aos programadores, enquanto os programadores devem interagir com os utilizadores desde o início sobre as considerações de desenvolvimento e envolvê-los no planeamento. Através da colaboração enraizada em valores partilhados de responsabilidade e segurança, os utilizadores e o setor tecnológico podem construir um ecossistema de IA que equilibre os benefícios da inovação com o bem-estar social.

Com fundamentos como práticas responsáveis de dados, testes rigorosos, monitoramento contínuo e um compromisso com a transparência firmemente estabelecido, as organizações de segurança podem adotar a IA com confiança, segurança e responsabilidade. A governação da IA continua a ser uma jornada – não um destino. Mas as empresas dispostas a evoluir prosperarão na nova era da regulamentação da IA. Priorizar práticas de inovação responsáveis e responsabilização hoje permitirá que os fornecedores de segurança liberem o imenso potencial da inteligência artificial para melhor proteger as pessoas e a propriedade amanhã.