Contáctenos
Search Icon

Suggested region and language based on your location

    Your current region and language

    Mujer con gafas de realidad aumentada de pie en una calle nocturna mientras utiliza un móvil
    • Blog
      Confianza digital

    Defenderse del lado oscuro de la IA

    Comprender cómo se puede usar la IA para engañar, manipular o perjudicar a las organizaciones.

    Aunque la inteligencia artificial (IA) sigue siendo una tecnología novedosa y estimulante, no deja de ser una herramienta más. Si decide introducirla en su organización, debe conocer los posibles riesgos a los que podría estar expuesto.

    Somos conscientes de los beneficios de la IA, pero, dado que actualmente el 35 % de las empresas ya la están usando, el enfoque debe desplazarse hacia cómo prepararse para cuando surja algún problema. Esto incluye comprender cómo se puede utilizar la IA para engañar, manipular o perjudicar a las organizaciones, así como conocer las herramientas disponibles para defenderse y mitigar riesgos.

    La IA se utiliza de forma deshonesta

    Uno de los principales riesgos asociados a la inteligencia artificial es su capacidad para permitir que las personas simulen ser quienes no son. Por ejemplo, la IA puede crear currículums (o CV) muy atractivos y agilizar el proceso de elaboración. En un mercado laboral cada vez más competitivo, muchos titulados utilizan herramientas como OpenAI o ChatGPT para redactar sus cartas de presentación junto con los CV. Aunque esto ayuda a algunos a superar las pruebas de selección, las empresas se dan cuenta de que, cuando se llama a un candidato para una entrevista, existen discrepancias entre las aptitudes que figuran en el currículum y la persona que tienen enfrente.

    Del mismo modo, las instituciones financieras suelen utilizar formularios online e inteligencia artificial para determinar si conceden un préstamo o crédito a alguien. La automatización de procesos como este significa que las empresas no siempre se reúnen con las personas cara a cara, lo que las convierte en un objetivo prioritario para aquellos que quieren aprovecharse del sistema.

    En una variante de los ataques tradicionales de whaling (un tipo de ataque de spear phishing dirigido a altos ejecutivos), hay informes recientes de estafadores que utilizan la inteligencia artificial para falsificar solicitudes en nombre del Chief Financial Officer (CFO).

    Estos ejemplos ponen de manifiesto la necesidad de que las organizaciones actúen con cautela, implanten procesos de verificación sólidos y ofrezcan formación a las partes interesadas.

    Prácticas empresariales poco éticas

    La IA puede maximizar las ventajas comerciales mejorando las estrategias de precios dinámicos en Internet. El 94 % de los compradores compara los precios de los productos mientras compra en Internet, y los algoritmos supervisan este comportamiento para ofrecer precios personalizados en función de sus hábitos de compra. Sin embargo, las empresas pueden caer en la tentación de utilizar estrategias de precios engañosas, aprovechando los algoritmos para evaluar la disposición de los consumidores a pagar en lugar de ofrecer precios adecuados.

    Esta manipulación va más allá de los ajustes de precios. Las empresas podrían utilizar algoritmos sofisticados para predecir e influir en el comportamiento de los consumidores, lo que podría suponer traspasar los límites éticos al aprovechar las preferencias o debilidades de cada individuo.

    Riesgos internos y de terceros

    Las amenazas internas constituyen un nivel adicional de complejidad. Un empleado descontento con acceso a algoritmos de IA podría sabotear operaciones o comprometer datos sensibles. Al introducir intencionadamente información confidencial en sistemas de IA generativa, los empleados podrían exponer secretos de la organización, lo que supondría un riesgo grave de seguridad tanto para la empresa como para sus clientes. A principios de 2023, una empresa multinacional del sector de la electrónica prohibió a sus empleados el uso de IA después de descubrir que un empleado había filtrado información interna sensible al utilizar IA con fines laborales.

    Muchas organizaciones dependen de proveedores externos para datos y servicios esenciales. Sin embargo, esta colaboración introduce riesgos, ya que la parte externa puede tener otros sesgos y un nivel de tolerancia al riesgo diferente, que no se ajuste a las expectativas o estándares de la empresa. Este desajuste puede dar lugar a situaciones vulnerables, como un desarrollo precipitado que carece de medidas de seguridad y una mayor susceptibilidad a la manipulación.

    Defensa ante los riesgos

    La seguridad se basa en tres principios: confidencialidad, integridad y disponibilidad, y cualquier control que se implante tiene como objetivo protegerlos. A medida que avanzan las técnicas de ataque a estos principios, las defensas deben volverse más avanzadas. Las empresas pueden mitigar los riesgos mediante:

    • Estrategia integral de defensa: es importante evaluar y supervisar los sistemas de IA, verificar la fiabilidad de las colaboraciones con terceros y protegerse ante una amplia variedad de amenazas potenciales, incluidas las derivadas de usuarios malintencionados y algoritmos manipulados.
    • Gobierno responsable y divulgación: las amenazas a la ciberseguridad y los riesgos éticos deben abordarse desde un gobierno equilibrado. La falta de medidas proactivas puede derivar no solo en daños reputacionales, sino también en la pérdida de confianza en sectores enteros.
    • Prácticas responsables de IA: tanto desarrolladores como empresas deben aplicar prácticas responsables como el diseño centrado en el ser humano, la protección de la privacidad y la seguridad de los datos, la transparencia y la rendición de cuentas, a lo largo de todas las etapas de la cadena de valor.
    • Cumplimiento normativo: manténgase al día de la evolución de las normativas relacionadas con la IA y la ciberseguridad, como la ISO 27001 o el marco de ciberseguridad del Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés). Asegúrese de cumplir con la normativa aplicable para evitar riesgos legales.

    El poder transformador de la IA es innegable. No obstante, su uso responsable exige un esfuerzo colectivo y un equilibrio entre el avance tecnológico y la responsabilidad ética. Solo mediante una defensa proactiva y sólida, y un compromiso sectorial con unas prácticas éticas en IA, las empresas y la sociedad podrán aprovechar todo su potencial y, al mismo tiempo, protegerse de los riesgos inherentes.