Los desafíos legales de la Inteligencia Artificial se vuelven más complejos.

Los desafíos legales de la IA se vuelven más complejos
Los desafíos legales de la IA se vuelven más complejos

Están surgiendo brechas en la voluntad de los países de aceptar los gigantes generativos de IA como ChatGPT, con preocupaciones de que la privacidad, la seguridad, la propiedad intelectual y los derechos personales están en riesgo por el software de código abierto.

La plataforma de IA que estableció récords de Internet desde su lanzamiento: un millón de usuarios en los primeros cinco días; 100 millones en dos meses: se estima que tuvo más de 1.800 millones de visitantes en abril según la plataforma de tráfico del sitio web Similarweb.

Eso es casi el doble del tráfico que recibió el sitio en febrero y significa que el sitio web de OpenAI ahora se ubica por encima de Zoom, Netflix o los motores de búsqueda Bing y DuckDuckGo.

Es otra señal de la expansión imparable del interés en la IA generativa desde que OpenAI lanzó ChatGPT a fines de noviembre, y con el lanzamiento pendiente de la integración de OpenAI en los productos de Microsoft, el crecimiento se acelerará aún más.

Para las empresas, se trata de venir, listas o no, según los expertos de Baker Tilly, quienes destacan que a pesar de la voluntad de muchos líderes de aprender y probar el software de IA en la web, realmente pocos están listos para los cambios que están por ocurrir.

Deepak Upadhyaya, socio de Baker Tilly Canadá en Tecnología Digital y Asesoría en Riesgos, dice que muchos clientes están comenzando a aceptar cómo los modelos de lenguaje grandes como ChatGPT y su versión más nueva, GPT-4, pueden ayudar en sus negocios.

Para la mayoría de los usuarios comerciales, el acceso a las herramientas de GPT se realiza a través del sitio web de OpenAI, ya sea accediendo a las herramientas heredadas de ChatGPT o pagando una suscripción para acceder a GPT-4.

En ambos casos, OpenAI puede usar el contenido de estas plataformas creado por estas conversaciones para ayudar a entrenar sus modelos y mejorar el servicio, de acuerdo con los términos y condiciones de OpenAI.

Eso aumenta los riesgos de ingresar contenido que podría ser comercialmente sensible, que posiblemente resurja en otro lugar en un momento posterior.

NG 1 13

“Hay muchas preguntas que los clientes todavía están tratando de resolver, de cómo podrían establecer protocolos para su uso o cómo podrían asegurarse de que están usando la herramienta correcta de la manera correcta”, dice.

“Si están usando la información que se genera, ¿qué tan confiable es? ¿Cuánto pueden confiar en la respuesta?

“Pero también estamos viendo vacilaciones sobre grandes preguntas con respecto a la gobernanza: cuántos datos internos están dispuestos a ejecutar a través de un modelo, cuánto de eso debe eliminarse y cuál es la custodia de esos datos en todo momento”.

Esas preguntas se amplifican para las empresas que usan la interfaz web para ChatGPT, dice, pero también pueden aplicarse a aquellas que usan la API de ChatGPT para conectarse a aplicaciones y herramientas empresariales.

OpenAI dice que no usa el contenido de la API para entrenar sus modelos a menos que los usuarios lo acepten, sin embargo, retiene esos datos durante 30 días con todos los datos de los clientes almacenados en los EE. UU., lo que podría violar los requisitos para las empresas en algunos otros países.

Las preocupaciones de privacidad de ChatGPT son solo el comienzo.

Una indicación de cómo esos riesgos aún no se comprenden completamente se puede ver en las acciones recientes de la autoridad supervisora ​​de protección italiana Garante para la protección de datos personales, conocida como GPDP o Garante. La autoridad prohibió temporalmente el acceso a ChatGPT en Italia hasta que la empresa indicó que estaba dispuesta a analizar un par de preocupaciones clave, incluida la falta de verificación de edad (aunque se supone que los usuarios deben tener 13 años o más y los menores de 18 requieren permiso de los padres).

Una preocupación mayor era el uso potencial de OpenAI de información personal que podría compartirse en conversaciones en la plataforma y potencialmente reutilizarse o reaparecer en otros lugares durante el proceso de capacitación.

Aunque Garante cedió a principios de mayo, la abogada legal de Baker Tilly Italia, Carmen Dinnella, advierte que pocos países europeos tienen marcos legales que puedan adaptarse rápidamente al rápido aumento de las plataformas de IA generativa.

Y sin la confianza de que pueden cumplir con las regulaciones, las empresas serán más lentas y más cautelosas a la hora de adoptar esta y otras tecnologías emergentes.

“Ya tenemos una gran diferencia en el uso de estas tecnologías entre las grandes empresas italianas y las pequeñas y medianas empresas”, dice.

“Según un estudio del observatorio de inteligencia artificial de la Universidad de Milán, alrededor del 61% de las grandes empresas italianas tienen al menos un proyecto basado en IA. Pero para las pymes, solo el 15% tiene este tipo de proyectos y suelen ser los ‘más simples’ en términos de complejidad tecnológica.

“No es solo un problema tecnológico, sino un problema cultural y un problema basado en las habilidades específicas que son necesarias cuando tienes que lidiar con la IA”.

Las pymes son más sensibles a los cambios organizativos que podrían acompañar al uso generalizado de la IA, dice, y menos capaces de crear los nuevos modelos, sistemas y procesos de negocio necesarios para aprovechar su adopción.

También les puede resultar más difícil alinear su uso de la tecnología con la gran cantidad de leyes y reglamentos que podrían interactuar con el uso de la IA en diferentes contextos. “No tenemos reglas ni leyes que permitan fácilmente a las empresas usar estas tecnologías”, dice.

“No tenemos reglas ni leyes que permitan fácilmente a las empresas usar estas tecnologías”, dice.

“Uno de los principales problemas está relacionado con la responsabilidad de la IA: no está claro, de hecho, cómo se consideraría a la IA en el tema de la responsabilidad.

“En el caso de la responsabilidad penal, por ejemplo, la ley italiana presupone que siempre hay una persona física que comete un delito, ya sea con intención o por negligencia. Este concepto claramente no puede ser aplicado a la IA, con consecuencias prácticas, éticas y sancionadoras.

“Nuestra legislación de derechos de autor no es adecuada para extenderse a la inteligencia artificial, porque está estrictamente relacionada con la presencia de un autor o creador humano, ya que la obra constituye una expresión de la obra intelectual.

“Luego está la carga de la protección de datos y la privacidad de los datos. Es muy exigente para las empresas cumplir con GDPR y las reglas de privacidad de datos y realmente no tenemos las respuestas sobre cómo encaja la IA en ese marco”.

La IA creció de forma constante en todo el mundo.

Una investigación de mercado encargada por IBM reveló que la adopción global de inteligencia artificial creció de forma constante en todo el mundo, con el 28% de las empresas en Perú indicando que han implementado activamente la IA. Esto subraya aun más que el crecimiento de esta tecnología está a punto de acelerarse a medida que continúa madurando, volviéndose más accesible y más fácil de implementar.

NG 5 9

Otros hallazgos del Global AI Adoption Index 2022, realizado por Morning Consult, revelaron que este crecimiento se debió a que las empresas reconocieron el valor de la IA a medida que están emergiendo de los desafíos de la pandemia de COVID-19 e invirtiendo en su transformación digital, mientras que enfrentan la escasez de talento y de habilidades. En Perú, específicamente, la adopción está siendo impulsada por la necesidad de reducir costos y automatizar procesos clave (48%) y avances que hacen la IA más accesible para las compañías (47%).

Por primera vez, el informe también les preguntó a las compañías sobre sus planes de incorporar inteligencia artificial en sus iniciativas de sostenibilidad, y encontró que la IA está preparada para desempeñar un papel significativo en ello.

El 28% de las empresas en Perú reportan que utilizan la IA en sus operaciones comerciales. En comparación con 2021, las organizaciones son 11% más propensas a adoptar la IA en 2022. Además, el 40% de las empresas informan que están explorando el uso de la IA.

Actualmente, el 62% de los profesionales de TI en Perú en compañías que están explorando o implementando IA en sus empresas han acelerado sus inversiones y su despliegue de IA en los últimos 24 meses, y la mitad de los profesionales de TI (50%) en Perú indica que su compañía tiene planes de invertir en la adopción de la IA a través de su incorporación en procesos y aplicaciones en la actualidad.

Una explicación importante para la adopción gradual de la IA es la necesidad de implementar una estrategia de gestión de datos exitosa.

Según el estudio, en Perú, garantizar la seguridad de la información se considera la parte más difícil de la estrategia de gestión de datos de una organización, independientemente de su tamaño.

Al día de hoy, el 40% de las compañías en Perú que exploran o implementan la IA, cuenta con una estrategia de IA. Solo el 20% cuenta con una estrategia holística y el 29% cuenta con planes enfocados a casos de uso limitados o específicos.

Baker Tilly Global

Comments are closed.