DESCUBRE EL FUTURO: CÓMO LA IA ESTÁ TRANSFORMANDO LA GESTIÓN EMPRESARIAL

DESCUBRE EL FUTURO: CÓMO LA IA ESTÁ TRANSFORMANDO LA GESTIÓN EMPRESARIAL

  • La inteligencia artificial (IA) ha llegado para quedarse y transformar nuestras vidas, incluso se sostiene[1] que las actividades cotidianas podrían ser mejoradas por la IA.  A través de este artículo conoceremos como la IA  está transformando la gestión empresarial y los desafíos éticos que enfrentamos en esta era de innovación sin precedentes.

Por: Pedro Aguirre López[2]

Debido a su gran trascendencia, se le denomina a la época actual como la era de la IA[3], reconociéndola como la tecnología más floreciente, no solo en las actividades diarias, sino también por su gran impacto en el mundo empresarial.

Sin embargo, surge un sentimiento de preocupación y desconfianza a consecuencia del uso gigantesco de la IA, donde relucen riesgos éticos y penales que podrían afectar a ciertos bienes jurídicos como la intimidad, el uso ético de datos y algoritmos, el secreto de las comunicaciones, o la sostenibilidad ambiental.

En la medida que estos riesgos son altamente nocivos para bienes jurídicos individuales y/o colectivos, donde la empresa es el agente económico y principal gestor de estos riesgos penales, surge, entonces la necesidad de la intervención del Estado a través del Derecho Penal para cumplir su función preventiva y protectora de los grupos económicos y la sociedad en su conjunto.

IMPACTO DE LA IA EN LA GESTION EMPRESARIAL

Teniendo en cuenta que la gestión empresarial es entendida como la capacidad de los directivos de una empresa para coordinar, dirigir y administrar todos sus recursos; y para lograr sus objetivos financieros, de producción y de expansión, necesitan muchas veces de las tecnologías de la IA.

La misión de la IA es optimizar el trabajo humano a través de robots o la creación de algoritmos, sin embargo, este enfoque ambicioso de las empresas en cumplir todos sus objetivos financieros, resulta pernicioso para algunos bienes jurídicos protegidos, que los organismos internacionales vienen alertando[4].

Es innegable la utilidad de tecnologías de la IA en la gestión empresarial privada[5], pero este aprovechamiento se debe regir bajo los parámetros de la ética. Así, la Organización para la Cooperación y Desarrollo Económico – OCDE, en el año 2019[6] desarrolló algunos principios y recomendaciones, basados en valores éticos-jurídicos, para el uso responsable de la IA en la gestión empresarial privada, tales como el respeto al ordenamiento jurídico nacional, protección de los Derechos Humanos, y la diversidad humana. Este reto lo tiene el Estado peruano, toda vez que, es uno de los 34 países que se adhirió a los principios y recomendaciones esgrimidos por este organismo internacional.

LA EMPRESA COMO PRINCIPAL GESTOR DE RIESGOS PENALES EN LA ERA DE LA IA

Existe consenso, entonces, que la creación y posterior utilización de las tecnologías de la IA tienen un gran desarrollo en sector privado, por parte de empresas que manejan su innovación y ejecución.

Si bien los dos grupos empresariales conocidos como GAFAM (conformados por Amazon, Facebook, Microsoft, Apple, y Alphabet), y, BATX (integrado por un conjunto de empresas chinas Xiaomi, Baidu, Alibaba y Tencent) son las empresas líderes en el manejo de los sistemas de la IA; sin embargo, no se puede negar la posibilidad que empresas, con determinado objeto social, puedan comprar, crear y/o implementar estas tecnologías de la IA dentro de sus estructuras corporativas, cuya finalidad sea dotar de eficiencia a sus gestiones empresariales.

LEY QUE REGULA LA IA

En este sentido, el Parlamento Europeo[7] con fecha 13 de marzo del 2024, aprobó la Ley que regula la Inteligencia Artificial con el objetivo de garantizar la seguridad y el respeto de los derechos fundamentales, donde si bien es una buena iniciativa para neutralizar los altos riesgos penales derivados del uso de la IA, sin embargo, se puede advertir que aún es un proceso inicial de esta normativa internacional que se irá implementando paulatinamente a nivel de Europa.

LA IA COMO INTERÉS NACIONAL

Por su parte, en el Perú, con fecha 05 de julio de 2023, se publicó la Ley N°31814 –Ley de Inteligencia Artificial-[8], donde se declaró de interés nacional la promoción de la IA a fin de lograr el desarrollo económico y social del país; sin embargo, consideramos que dicha ley contiene una regulación muy genérica, donde únicamente se ha limitado a establecer algunos principios, las acciones de la Autoridad Nacional, y alcances sobre el informe anual. El Poder Ejecutivo tenía 90 días hábiles para aprobar su reglamento, sin embargo, hasta la fecha seguimos a la espera. Lo cierto es que, a pesar de lo que se pueda reglamentar, la Ley N°31814 no deja de ser muy general.

Frente a ello, se puede deducir que, en muchos países, incluido el Perú, no existe una regulación ético-jurídica específica, sobre los estándares que las empresas deben seguir al momento de la implementación y/o ejecución de las tecnologías de la IA dentro de sus estructuras organizacionales. Incluso, se podría afirmar que las propias empresas deberían implementar normas internas de actuación[9] o guía en la ejecución de los sistemas informáticos de la IA[10]; sin embargo, este intento fantasmagórico de plasmar políticas internas empresariales, en salvaguarda de derechos humanos frente al avance gigantesco de la IA, han devenido en un fracaso con el transcurso del tiempo y el avance tecnológico[11].

Estando consientes del estado de las cosas, ahora como efecto inevitable, es la aparición de riesgos penales no permitidos que se gestan dentro de las corporaciones. Estos riesgos no permitidos de naturaleza penal son entendidos como aquellos factores que, a partir de determinadas circunstancias o comportamientos, transgreden el ordenamiento jurídico a través de acciones u omisiones[12], en este caso, provenientes de estructuras empresariales a consecuencia de la implementación y/o uso de las tecnologías de la IA.

Estos riesgos penales no permitidos se materializan con la real amenaza y/o afectación a ciertos bienes jurídicos penalmente tutelados por cada país, tales como la dignidad humana, trato igualitario ante la ley, la no discriminación, libertad de trabajo, entre otros.

LA AUTOREGULACIÓN ÉTICO EMPRESARIAL DE LA IA  

 Lo esbozado líneas arriba nos permite concluir que, dentro de las estructuras corporativas subyacen riesgos penales no permitidos que amenazan de manera real e inminente a bienes jurídicos, debido a la insuficiencia de la autorregulación ético empresarial de la IA, y, si bien, la iniciativa del Parlamento Europeo en aprobar la Ley de Inteligencia Artificial, y en el Perú con la promulgación de la Ley N°31814, sin embargo, se evidencia que no son suficientes para neutralizar las posibles afectaciones a derechos fundamentales. Por lo que, para mitigar esta creciente amenaza generada por estos riesgos, los Estados deben implementar políticas públicas internas de regulación normativa específica para el uso responsable de las tecnologías de la IA, cuyos sujetos destinatarios sean no solo las empresas creadoras sino también (y con mayor razón) las empresas que compran y/o utilizan los sistemas informáticos.

——————————————————————————————————–

[1]Morte & Monasterio, (2017)

[2]Área Penal – Estudio Carranza

[3]Mondal (2020) 

[4]En este sentido, el Parlamento Europeo en la Commission del año 2017, esbozó lo siguiente: “Considerando que, ahora que la humanidad se encuentra a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial – que probablemente afecte a todos los estratos de la sociedad—, resulta de vital importancia que el legislador pondere las consecuencias jurídicas y éticas, sin obstaculizar con ello la innovación.”

[5]Véase que Kai-Fu Lee (2020), refiere que los sistemas de la IA son utilizados principalmente por las empresas del sector privado.

[6]OCDE – Recomendación del Consejo sobre Inteligencia Artificial, adoptado el 21 de mayo del 2019, y modificado el 11 de julio del 2023. Disponible en: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

[7]Véase en: https://www.europarl.europa.eu/pdfs/news/expert/2023/6/story/20230601STO93804/20230601STO93804_es.pdf

[8]Disponible en: https://www.gob.pe/institucion/congreso-de-la-republica/normas-legales/4565760-31814

[9]Conforme lo hizo Google en Reino Unido, en el caso DeepMind; y otras empresas como Amazon.

[10]Haciendo que en el sector privado se implemente políticas de autorregulación corporativa.

[11]Véase Piedra (2021, p.07)

[12]El término “riesgo no permitido” hace alusión a aquellos comportamientos que no son tolerados por el Derecho, toda vez que se fundamenta en una ponderación, donde los intereses generales resultantes de la realización de una actividad específica justifican el riesgo potencial de resultados perjudiciales que dicha actividad pueda ocasionar. Véase Jakobs (1995, p. 243)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Hola! Indícanos en qué podemos ayudarte