La inteligencia artificial (IA) está transformando todos los sectores a medida que los líderes reconocen el potencial de la tecnología para mejorar la productividad, potenciar la creatividad, impulsar la calidad y generar nuevas soluciones. Esto ha creado un aumento de la demanda de IA y, en particular, de la IA generativa.
Desbloquear el valor de la IA generativa con una transformación responsable puede cambiar el juego. Los casos de uso de la IA generativa pueden encontrarse en diversas industrias, desde inspirar nuevos diseños de muebles y personalizar el marketing hasta acelerar el descubrimiento de fármacos en la industria farmacéutica.
Sin embargo, junto con el valor potencial de la IA, los líderes también están preocupados por sus riesgos, incluidos el sesgo, la seguridad, la protección y la pérdida de reputación en caso de que algo salga mal.
Muchos líderes también reconocen que mitigar estos riesgos puede conducir a una ventaja competitiva y contribuir fundamentalmente al éxito de su organización. Por lo tanto, adoptar la tecnología ética y responsablemente se ha convertido en una consideración clave, lo que ha llevado al rápido surgimiento y adopción de la gobernanza de la IA.
Regulación de la IA en expansión
La IA ya está sujeta a normativas aplicables que van más allá de la tecnología misma. Por ejemplo, las leyes se centran en la privacidad, la antidiscriminación, las responsabilidades y la seguridad de los productos. Además, la actividad reguladora centrada en la IA está en expansión.
En 2024, la Ley de Inteligencia Artificial de la Unión Europea, o Ley de IA de la UE, finalmente entró en vigor tras años de debate y anticipación. Al igual que el Reglamento General de Protección de Datos (RGPD), esperamos que influya en muchas leyes similares de otras regiones del mundo.
Los responsables políticos de todo el mundo están debatiendo la IA, que en 2023 se mencionó en los procedimientos legislativos con el doble de frecuencia que en 2022. En algunos casos, la actividad reguladora se centra explícitamente en la IA generativa, como las Medidas Administrativas Provisionales para los Servicios de Inteligencia Artificial Generativa de China.
También ha habido un aumento en las actividades relacionadas con los estándares de IA y la colaboración entre jurisdicciones, ejemplificado por las iniciativas impulsadas por la Organización para la Cooperación y el Desarrollo Económico (OCDE), el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST), la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), la Organización Internacional de Normalización (ISO) y el Grupo de los Siete (G7).
En 2024, hemos visto una mayor atención a la seguridad de la IA con el lanzamiento de nuevos institutos de seguridad de IA y la expansión de los esfuerzos impulsados por institutos de Estados Unidos, Reino Unido, Singapur y Japón. Además, la nueva Oficina de IA de la UE, creada en virtud de la Ley de IA de la UE, se centrará en desarrollar mejores prácticas.
Podemos esperar que este crecimiento en el volumen y la variedad de reglamentos y estándares de IA continúe en el futuro previsible, a medida que los responsables políticos lidian con la forma de gestionar los riesgos de la IA. Los acuerdos internacionales sobre estándares interoperables y requisitos regulatorios básicos desempeñarán un papel importante para permitir la innovación y mejorar la seguridad de la IA.