Fale conosco
Search Icon

Suggested region and language based on your location

    Your current region and language

    Mulher usando óculos de realidade aumentada em pé em uma rua noturna usando um smartphone
    • Blog
      Digital trust

    Defesa contra o lado sombrio da IA

    Entendendo como a IA pode ser explorada para enganar, manipular ou prejudicar as organizações.

    Embora a inteligência artificial (IA) ainda seja nova e empolgante, ela não é diferente de qualquer outra tecnologia. Se você decidir implementá-lo em sua organização, certifique-se de estar ciente dos possíveis riscos de exposição.

    Estamos cientes dos benefícios da IA, mas com 35% das empresas agora adotando-a, o foco deve mudar para como se preparar para quando algo der errado. Isso inclui a compreensão de como a IA pode ser explorada para enganar, manipular ou prejudicar as organizações, além de ferramentas para ajudar a se defender e mitigar os riscos.

    IA sendo usada de forma dissimulada

    Um grande risco associado à IA é a capacidade das pessoas de fingirem ser algo que não são. Por exemplo, a IA pode tornar os currículos fantásticos e o processo de criação deles muito mais rápido. Em um mercado de trabalho cada vez mais competitivo, os graduados estão usando aplicativos como o OpenAI ou o ChatGPT para escrever cartas de apresentação juntamente com os currículos. Embora isso ajude alguns a avançar nas triagens de recrutamento, as empresas descobrem que, quando um candidato é chamado para uma entrevista, há disparidades entre as qualificações no papel e a pessoa sentada à mesa.

    Da mesma forma, as instituições financeiras costumam usar formulários on-line e IA para determinar se devem conceder um empréstimo ou crédito a alguém. Automatizar processos como esse significa que as empresas nem sempre estão se encontrando pessoalmente com as pessoas, o que as torna um alvo preferencial para aqueles que querem explorar o sistema.

    Em uma reviravolta nos ataques tradicionais de whaling (um tipo de ataque de spear-phishing direcionado a executivos seniores), há relatos recentes de fraudadores que usam IA para falsificar solicitações em nome do diretor financeiro (CFO).

    Esses exemplos destacam a necessidade de as empresas serem cautelosas, implementarem processos de triagem robustos e oferecerem treinamento às partes interessadas.

    Práticas comerciais antiéticas

    A IA pode maximizar as vantagens comerciais por meio de estratégias aprimoradas de preços dinâmicos on-line. 94% dos compradores comparam preços de produtos enquanto fazem compras on-line, e os algoritmos monitoram esse comportamento do usuário para oferecer preços personalizados com base nos hábitos de consumo. No entanto, as empresas podem ser tentadas a se envolver em estratégias de preços enganosas, explorando os algoritmos para avaliar a disposição do consumidor em pagar, em vez de oferecer o preço adequado.

    Essa manipulação vai além dos ajustes de preços. As empresas poderiam empregar algoritmos sofisticados para prever e influenciar o comportamento do consumidor, podendo ultrapassar os limites éticos ao capitalizar as preferências ou vulnerabilidades individuais.

    Riscos internos e de terceiros

    As ameaças internas adicionam outra camada de complexidade, em que colaboradores insatisfeitos com acesso a algoritmos de IA podem sabotar operações ou comprometer dados confidenciais. Ao alimentar intencionalmente dados confidenciais em sistemas de IA generativos, os funcionários podem expor segredos organizacionais a possíveis invasões, ameaçando empresas e clientes com riscos significativos à segurança. No início de 2023, uma empresa global de eletrônicos proibiu os funcionários de usar IA depois que foi identificado que informações internas confidenciais haviam sido vazadas por um funcionário que usava IA para fins relacionados ao trabalho.

    Muitas empresas dependem de provedores terceirizados para obter dados e serviços essenciais. No entanto, essa parceria apresenta riscos, pois o terceiro pode ter preconceitos diferentes e uma tolerância ao risco que não se alinha às expectativas ou às normas da empresa. Essa incompatibilidade pode levar a vulnerabilidades, incluindo o desenvolvimento apressado que não possui medidas de segurança e maior suscetibilidade à manipulação.

    Defesa contra riscos

    A segurança baseia-se em três princípios: confidencialidade, integridade e disponibilidade, e todos os controles implementados devem protegê-los. À medida que as técnicas avançam na capacidade de atacar esses princípios, as defesas devem se tornar mais avançadas. As empresas podem mitigar os riscos por meio de:

    • Estratégia de defesa abrangente:É importante que as empresas examinem e monitorem os sistemas de IA, avaliem a confiabilidade dos envolvimentos de terceiros e ofereçam suporte contra uma ampla gama de ameaças em potencial, incluindo aquelas representadas por usuários falsos e algoritmos corrompidos.
    • Governança responsável e divulgação:Ameaças à segurança cibernética e perigos morais exigem uma governança equilibrada. A ausência de medidas proativas pode levar não apenas a danos à reputação, mas também a uma erosão da confiança em setores inteiros.
    • Práticas responsáveis de IA: Dos desenvolvedores às empresas, as práticas responsáveis de IA, como uma abordagem de design centrada no ser humano, privacidade e segurança de dados, transparência e responsabilidade, devem estar enraizadas em todos os estágios da cadeia de valor.
    • Compliance regulatório:Mantenha-se atualizado com os regulamentos e normas em evolução relacionados à IA e à segurança cibernética, como a ISO 27001 ou a estrutura de segurança cibernética do Instituto Nacional de Normas e Tecnologia (NIST) . Garantir o compliance com os regulamentos relevantes para evitar riscos legais e regulatórios.

    O poder transformador da IA é inegável. Entretanto, sua operação responsável exige um esforço coletivo e um equilíbrio entre o avanço tecnológico e a responsabilidade ética. Somente por meio de uma defesa proativa e robusta e de um compromisso de todo o setor com práticas éticas de IA é que as empresas e as sociedades poderão aproveitar todo o seu potencial e, ao mesmo tempo, se proteger contra os riscos inerentes.

    Leia mais sobre como a IA está impactando as organizações em Desbloqueando a confiança na IA , de Mark Brown, Explorando a IA generativa e o compliance , de Conor Hogan, e O impacto da IA e do ML na segurança cibernética , de Alessandro Magnosi.