El creciente uso de la IA generativa entre los abogados

El creciente uso de la IA generativa entre los abogados

El creciente uso de la IA generativa entre los abogados

Written by

La inteligencia artificial generativa (GenAI) ha ganado terreno en el ámbito legal, especialmente entre los abogados internos. Una reciente encuesta realizada por Juro a 105 abogados internos en todo el mundo revela que solo el 14.3% nunca usan herramientas de GenAI. Este dato marca un aumento significativo en comparación con el año anterior, donde el 45% de los encuestados afirmaron no utilizar esta tecnología.

Aplicaciones de la GenAI en el ámbito legal

Entre las principales aplicaciones de la GenAI destacan la redacción de plantillas de contratos y la revisión de documentos. Además, los abogados internos están aprovechando estas herramientas para tareas como la visualización de datos, la creación de chatbots legales y la redacción de comunicaciones específicas para el negocio.

 

La implementación de sistemas de superinteligencia podría llevar a consecuencias no intencionadas si su diseño no incorpora valores humanos esenciales. La posibilidad de que la IA actúe con una lógica que desvíe de los intereses humanos plantea un escenario riesgoso.

Un cambio en la percepción y el uso

Según la encuesta, alrededor del 42% de los abogados internos usan GenAI de forma ocasional, mientras que un 19% la utilizan diariamente y un 25% semanalmente. Esta tendencia refleja un cambio significativo en la percepción y el uso de esta tecnología, que hasta hace pocos años era desconocida en el ámbito legal.

Desafíos y oportunidades

A pesar del creciente uso, persisten las preocupaciones sobre la privacidad y la exactitud de las herramientas de GenAI. Un 53% de los encuestados expresó falta de confianza en la postura de privacidad de estos productos. No obstante, la mayoría de los abogados utilizan GenAI a través de intermediarios tecnológicos, lo que podría mitigar algunos de estos temores.

El Debate Ético en el Corazón de la IA

La implementación de sistemas de superinteligencia podría llevar a consecuencias no intencionadas si su diseño no incorpora valores humanos esenciales. La posibilidad de que la IA actúe con una lógica que desvíe de los intereses humanos plantea un escenario riesgoso.

  • La superinteligencia como un nuevo paradigma: La superinteligencia no es una mera evolución de la IA actual; es un salto cuántico que nos introduce a una nueva era donde las máquinas podrían superar nuestras capacidades intelectuales en todos los ámbitos. (Bostrom, 2002).
  • El desafío de la alineación: La creación de una superinteligencia éticamente alineada con los valores humanos es uno de los mayores desafíos que enfrentamos. Es crucial que la IA no solo sea inteligente, sino que también esté motivada por principios éticos que promuevan el bienestar humano. (Yudkowsky, 2003).
  • La importancia de las motivaciones iniciales: Es fundamental que la superinteligencia sea programada con valores éticos desde su concepción. Un error en la configuración de sus motivaciones podría tener consecuencias devastadoras, ya que una superinteligencia poderosa podría tener un impacto global e irreversible. (Bostrom, 2002).

Casos Prácticos y Preocupaciones Actuales: Reflexiones sobre el Impacto Real

 

  • Los ejemplos recientes de sistemas de IA que determinan sentencias judiciales o programas de contratación que perpetúan sesgos existentes, ponen de manifiesto la urgencia de abordar los dilemas éticos de la IA.
  • Sesgos algorítmicos y discriminación: La IA, como cualquier herramienta, puede replicar los sesgos existentes en los datos que se utilizan para su entrenamiento. Esto puede llevar a la discriminación en áreas como el sistema judicial, la contratación y el acceso a servicios financieros.
  • Falta de transparencia y rendición de cuentas: La complejidad de los sistemas de IA dificulta la comprensión de cómo funcionan, lo que limita la transparencia y la capacidad de establecer mecanismos de rendición de cuentas.
  • Pérdida de privacidad y control: La proliferación de sistemas de IA que recopilan y analizan datos personales plantea serios desafíos a la privacidad individual y el control sobre nuestros propios datos.

     

     

    Aprende más sobre el tema

    Para una comprensión más profunda sobre la adopción de la GenAI en el ámbito legal, puedes consultar los siguientes artículos:

    ¿Por qué es importante?

    1. La GenAI permite a los abogados internos realizar tareas repetitivas de manera más eficiente, liberando tiempo para actividades más estratégicas.
    2. La adopción de GenAI puede mejorar la precisión y velocidad en la revisión de documentos legales, beneficiando tanto a los abogados como a sus clientes.
    3. Comprender y utilizar GenAI es crucial para mantenerse competitivo en el campo legal.
    4. La implementación de GenAI en el ámbito legal presenta desafíos éticos y de privacidad que deben ser abordados adecuadamente.

    ¿Cómo crees que la GenAI transformará otras áreas del derecho?

    GRATISConsigue tu curso online.

    Últimos prompts
    • Organizar correos 
    • Análisis de competencia
    • Control de gastos
    • Generador de hipótesis
    • Encriptador de emojis
    Últimos Recursos
    • Firefly (imágenes)
    • Suno (música)
    • GeyHen (humanos digitales
    • HugginFace (modelos IA)

    Más noticias IA

    El creciente uso de la IA generativa entre los abogados

    El creciente uso de la IA generativa entre los abogados

    La adopción de herramientas de inteligencia artificial generativa (GenAI) está transformando la práctica legal interna, con aplicaciones que van desde la redacción de contratos hasta la revisión de documentos legales.

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk ha lanzado una advertencia a Apple tras su anuncio de integrar ChatGPT en sus dispositivos. Musk amenaza con prohibir el uso de iPhones y otros productos Apple en sus empresas, acusando a la empresa de Cupertino de una «violación de seguridad inaceptable».

    Altman devela el futuro de la IA: Un análisis de su charla en Stanford

    Altman devela el futuro de la IA: Un análisis de su charla en Stanford

    Altman devela el futuro de la IA: Un análisis de su charla en Stanford

    Written by

    Sam Altman, el visionario CEO de OpenAI, la empresa detrás del revolucionario ChatGPT que irrumpió como un tsunami hace menos de dos años, ofreció una charla cautivadora en el Seminario de Líderes de Pensamiento Emprendedor de la Universidad de Stanford. Su presentación, rica en ideas y reflexiones, exploró principalmente el futuro de la inteligencia artificial (IA) y su potencial para transformar la sociedad.

    En el diálogo que fue presentado por Ravi Belani, director del programa de emprendimiento, Altman habló abiertamente de las que él considera las oportunidades y los desafíos que la IA presenta y además, el enfoque de OpenAI de construir la AGI, sin importar el costo económico que esto suponga porque para Altman, sencillamente “vale la pena”.

    La IA: Un punto de inflexión en la historia humana

    Al describir la IA como el avance tecnológico más importante de la historia humana, Altman mostró mucho entusiasmo por su potencial transformador. Comparó el momento actual con el inicio de internet y dijo:

    «Diría que este es probablemente el mejor momento para iniciar una empresa, al menos desde Internet. Está sucediendo como (pasó) en la historia de la tecnología”

    Su creencia se basa fundamentalmente en que la IA puede cambiar muchos aspectos de nuestras vidas, algo que ha ya ha comenzado a suceder y de manera indefectible. Desde el trabajo y la educación, el transporte y la economía, hasta la interacción misma con el mundo al que ahora se le debe agregar, además, el territorio extendido de los metaversos y la realidad virtual.

    No es difícil imaginar un futuro donde la IA acelera el descubrimiento de curas para enfermedades, personaliza la educación para cada estudiante, asuma tareas peligrosas y automatice tareas tediosas, liberando así a los humanos para que puedan dedicarse a actividades creativas y significativas, algo así como cuando los griegos filosofaban mientras eran servidos por una cantidad de esclavos. La IA podría incluso ayudarnos a abordar desafíos globales como el cambio climático y la pobreza, siempre y cuando, claro, la esfera política quiera y, lo más importante, se ponga de acuerdo. No hay duda de que esta super herramienta podría ayudarnos a abrir un posible camino hacia un futuro más sostenible y equitativo; o todo lo contrario.

     

    Sam Altman habla sobre el futuro de la inteligencia artificial

    «Creo que es fundamental que haya un acceso global y equitativo para usar las computadoras, tanto para entrenar como para desarrollar, no importa dónde se construyan»

    Acceso equitativo: ¿Imperativo para el desarrollo global de la IA?

    A pesar del optimismo, Altman reconoció la importancia de garantizar el acceso equitativo a la infraestructura de IA y a los recursos informáticos en todo el mundo. No hay duda de que esta nueva tecnología, que requiere montañas de dinero para su entrenamiento y funcionamiento, abrirá aún más la brecha tecnológica entre países desarrollados y en desarrollo, creando una nueva forma de desigualdad y a nivel de las personas, creando nuevos espectros de discriminación. Al respecto, Altman dijo:

    «Creo que es fundamental que haya un acceso global y equitativo para usar las computadoras, tanto para entrenar como para desarrollar, no importa dónde se construyan»

    resaltando que existiría un compromiso de OpenAI con el desarrollo global de la IA.

    Este compromiso, afirma, se traduce en iniciativas para democratizar el acceso a la tecnología como la creación de plataformas de código abierto y la colaboración con investigadores de todo el mundo. Sin embargo, aunque la intensión es loable, la tarea no es sencilla y menos aún en un mundo candente y cambiante como el de hoy en día, ya que requiere la participación de gobiernos, empresas y organizaciones internacionales para asegurar que los beneficios de la IA sean compartidos por todos. Pero cuando uno piensa en esto, no se puede evitarse pensar que entre esas empresas y organizaciones internacionales y en algunos caos gobiernos también, están aquellos que se dedican a las armas y las guerras. Sin ir más lejos, Israel ya usa IA en Gaza, con programas como Pegasus, Lavender y The Gospel.

    Uso de inteligencia artificial en la guerra

    Desarrollo responsable: Un camino lleno de desafíos

    El enfoque de OpenAI para el desarrollo de la IA prioriza el despliegue iterativo, es decir, la liberación de modelos de IA en etapas tempranas para obtener retroalimentación del mundo real y mejorarlos continuamente, de hecho es así como se ha comportado la compañía. En lugar de lanzar el ChatGPT ya que entre las versiones 4 y 4.5 hemos visto una serie de mejoras paulatinas, lo mismo que vemos ahora con el camino hacia la versión 5, probablemente más enfocada a los agentes.

    Como sea, Altman reconoce que este enfoque conlleva desafíos, ya que los modelos imperfectos pueden (y lo hacen) generar errores o sesgos, aunque cuando se pone a hablar del futuro GPT-5, pareciera que se viene una nueva revolución:

    «ChatGPT no es fenomenal. ChatGPT es como ligeramente vergonzoso en el mejor de los casos … GPT-4 es el modelo más tonto que cualquiera de ustedes tendrá que volver a usar por mucho …»

    comentó dejando traslucir que la próxima versión superará por mucho los benchmarks actuales.

    Este enfoque de “lanzamientos paulatinos” ha sido objeto de críticas, con preocupaciones sobre la transparencia y la posibilidad de que los modelos de IA perpetúen sesgos existentes en los datos con los que son entrenados. Sin embargo, Altman defiende este método como crucial para el desarrollo responsable de la IA, ya que permite una adaptación continua a las necesidades y valores de la sociedad, lo que refuerza, además, la crencia de Altman sobre la transformación social que se nos avecina y advierte:

    «Si creamos una inteligencia general artificial en un lugar aislado y luego el mundo se encuentra desprevenido, no creo que eso nos convierta en buenos ciudadanos».

    Infraestructura: La base para el futuro de la IA

    Altman identificó la infraestructura de IA, que incluye energía, centros de datos y diseño de chips, como un factor clave para el futuro de esta tecnología y sí que lo es, tanto por las demandas técnicas como por los desafíos que implica en cuanto a recursos como el enfriar los colosales data centers que cobijan estos cerebros algorítmicos.

    «Creo que así es el arco de la historia tecnológica y humana, a medidad qie construimos sistemas más grandes y complejos (…) No creo que funcione mirar solo una pieza u otra, tenemos que hacer todo el asunto»

    declaró. La inversión en este ecosistema es esencial para desbloquear el verdadero potencial de la IA.

    El valor de las ideas no convencionales

    En un mensaje inspirador para los emprendedores, Altman los animó a desarrollar ideas originales y confiar en su intuición, incluso si van en contra de lo convencional.

    «Creo que nunca deberías tomar este tipo de consejos sobre qué startup comenzar, nunca, de nadie … Creo que una de las cosas más importantes sobre tener una carrera impactante es que que trazar tu propio camino»

    afirmó. Y es verdad, la historia nos ha mostrado infinidad de veces que las empresas y productos más disruptivos a menudo surgen del pensamiento no consensuado, de la capacidad de ver el mundo de una manera diferente.

    Construir valor, no perseguir ganancias

    Aunque OpenAI ha alcanzado una valoración significativa, Altman enfatizó que el objetivo principal debe ser construir tecnología valiosa que impacte positivamente en la sociedad, en lugar de perseguir ganancias financieras o poder, algo que me parece ya habíamos escuchado antes de alguien más.

    No sabremos más que con el tiempo cómo será el Altman del mañana, pero por ahora afirma:

    «Ya sea que quememos 500 millones al año o 5 mil millones o 50 mil millones al año, no me importa. Realmente no. Mientras podamos, creo, mantenernos en una trayectoria donde eventualmente creamos mucho más valor para la sociedad (…) Y mientras podamos encontrar una manera de pagar las facturas, como estamos haciendo la AGI (Inteligencia artificial general), va a ser caro (pero) vale totalmente la pena.»

    Esta afirmación es una clara señal de que la batalla del presente entre los gigantes tecnológicos es ver quién llega primero que nadie a la singularidad, esa entidad digital hipotética (casi) viva.

    Resiliencia y adaptabilidad: Claves para navegar el futuro de la IA

    El rápido ritmo de la innovación tecnológica exige resiliencia y adaptabilidad, tanto a nivel individual como social. Altman reconoce el potencial de mal uso y consecuencias no deseadas de la IA, y enfatiza la necesidad de un desarrollo responsable con un marco ético sólido que es lo que se ha estado discutiendo a todos los niveles y en todo el mundo.

    Desde luego nadie sabe si sacarán más provecho la industria militar que la medicina de esta maravillosa tecnología, pero Altman lanza una reflexión perturbadora:

    «Estoy preocupado solo por … aunque creo que en el corto plazo las cosas cambian menos de lo que pensamos, como con otras tecnologías importantes, en el largo plazo creo que cambian más de lo que pensamos. Y estoy preocupado por la tasa en la que la sociedad puede adaptarse a algo tan nuevo y cuánto tiempo nos llevará descubrir el nuevo contrato social frente a cuánto tiempo tenemos para hacerlo.»

    Disculpen ustedes, pero hablar de un “nuevo contrato social” de que no importa cuánto se tenga que gastar en la IA, aún así “vale la pena”, son expresiones que, al menos en lo personal, me dejan un tanto perplejo.

     

    Pueden estar o no de acuerdo, pero no se puede evadir el reflexionar sobre el futuro de la IA tras escuchar la charla de Sam Altman. Por ahora todo está en manos de las compañías y será ahí donde se debatirá que tipo de IA estamos construyendo o, mejor aún qué tipo de futuro se está labrando para la sociedad humana.  ¿Cómo podemos asegurar que esta tecnología beneficie a toda la humanidad? ¿Qué valores deben guiar su desarrollo? ¿Estamos preparados para los cambios que la IA traerá a nuestras vidas? ¿Qué clase de poder tendrá quien logre la singularidad de la AGI en un futuro hipotético?

    Estas preguntas son fundamentales para navegar el camino hacia un futuro donde la IA sea una fuerza para el bien o para que nos lleve el diablo.

    GRATISConsigue tu curso online.

    Últimos prompts
    • Organizar correos 
    • Análisis de competencia
    • Control de gastos
    • Generador de hipótesis
    • Encriptador de emojis
    Últimos Recursos
    • Firefly (imágenes)
    • Suno (música)
    • GeyHen (humanos digitales
    • HugginFace (modelos IA)

    Más noticias IA

    El creciente uso de la IA generativa entre los abogados

    El creciente uso de la IA generativa entre los abogados

    La adopción de herramientas de inteligencia artificial generativa (GenAI) está transformando la práctica legal interna, con aplicaciones que van desde la redacción de contratos hasta la revisión de documentos legales.

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk ha lanzado una advertencia a Apple tras su anuncio de integrar ChatGPT en sus dispositivos. Musk amenaza con prohibir el uso de iPhones y otros productos Apple en sus empresas, acusando a la empresa de Cupertino de una «violación de seguridad inaceptable».

    ¿Está la IA a Punto de Superar a los Humanos? Según un informe, Sí 🤯

    ¿Está la IA a Punto de Superar a los Humanos? Según un informe, Sí 🤯

    ¿Está la IA a Punto de Superar a los Humanos? Según un informe, Sí 🤯

    Written by

    La inteligencia artificial (IA) ha llegado a un punto de inflexión según el último AI Index Report 2024 de Stanford University. Este estudio no solo de enfoca en los avances significativos de la IA y el estado del arte, sino también cómo estos progresos están remodelando las comparaciones entre las capacidades humanas e inteligencia artificial. A continuación, exploraremos los puntos destacados de este informe y sus implicaciones para el futuro de la IA.

     

    En 2019, la puntuación promedio de los modelos de IA era de poco más del 30%, mientras que la puntuación base humana estaba en 89.8%. Para 2024, el modelo Gemini Ultra se convirtió en el primero en superar esta base con un puntaje de 90.04%,

    Benchmaks irrelevantes

    El informe de Stanford proporciona una visión comprensiva sobre el estado y las tendencias actuales del desarrollo de la IA. Se señala que los modelos de IA están mejorando a un ritmo tan acelerado que las referencias comparativas (benchmarks) que utilizamos para medir su desempeño se están volviendo cada vez menos relevantes. Muchos de estos benchmarks comparan el desempeño de los modelos de IA con el rendimiento humano en tareas específicas. Por ejemplo, el benchmark de Comprensión del Lenguaje Multitarea Masiva (MMLU) evalúa a los modelos de lenguaje de IA en 57 materias académicas, desde matemáticas hasta ética, usando preguntas de opción múltiple.

    Subiendo la marca

    Desde su establecimiento en 2019, el MMLU ha sido una referencia clave; sin embargo, los avances recientes en IA han comenzado a desafiar su relevancia. En 2019, la puntuación promedio de los modelos de IA era de poco más del 30%, mientras que la puntuación base humana estaba en 89.8%. Para 2024, el modelo Gemini Ultra se convirtió en el primero en superar esta base con un puntaje de 90.04%, evidenciando que los sistemas de IA superan regularmente el desempeño humano en benchmarks estándar. Este fenómeno indica la necesidad de reemplazar el MMLU y otros benchmarks similares para reflejar mejor las capacidades avanzadas de la IA.

    Además de superar los benchmarks establecidos, los investigadores están desarrollando pruebas más desafiantes como el Benchmark de Preguntas y Respuestas a Nivel de Posgrado a Prueba de Google (GPQA). Este nuevo benchmark está diseñado para evaluar modelos de IA contra individuos altamente capacitados en lugar de la inteligencia humana promedio. Consiste en 400 preguntas difíciles de opción múltiple a nivel de posgrado, donde expertos con o en proceso de obtener un doctorado responden correctamente el 65% de las veces. Este nivel de dificultad es significativo, ya que incluso validadores no expertos altamente capacitados alcanzan solo un 34% de precisión en preguntas fuera de su campo de estudio, después de pasar más de 30 minutos con acceso ilimitado a internet para investigar las respuestas.

    La necesidad de benchmarks más grandes y desafiantes es evidente, como lo demuestra el rendimiento del modelo Claude 3 de Anthropic, que logró casi un 60% en el GPQA con técnicas de estimulación de cinco disparos. Estos avances resaltan la capacidad de la IA para manejar tareas cada vez más complejas y su potencial para superar incluso a los humanos más capacitados en tareas cognitivas específicas.

    Destacados

    1. Avance de la IA: Según el informe, la inteligencia artificial está evolucionando a un ritmo tan acelerado que las comparaciones con las habilidades humanas están volviéndose obsoletas. Los desarrollos recientes sugieren que la IA puede no solo igualar, sino superar las capacidades humanas en varios aspectos cognitivos y técnicos.
    2. Superación de Referencias Humanas: El AI Index revela que modelos de IA han superado los estándares humanos en pruebas de referencia como MMLU (MultiModal Language Understanding), ImageNet (reconocimiento de imágenes), SQuAD (Stanford Question Answering Dataset) y SuperGLUE (General Language Understanding Evaluation).
    3. Desarrollo de Nuevas Pruebas: Frente a estos avances, se hace necesario el desarrollo de pruebas más desafiantes, como el GPQA (General Purpose Question Answering), diseñadas para medir la competencia de los modelos de IA en contextos más complejos y contra individuos altamente calificados.
    4. Evaluaciones Humanas y Seguridad: El informe subraya que, pese a su avance, la IA aún enfrenta dificultades significativas con el manejo de hechos, el razonamiento complejo y la explicación de conclusiones. Propone que las evaluaciones realizadas por humanos podrían ofrecer una medida más efectiva del rendimiento y la seguridad de la IA.

    Aprende más sobre la Superación de Capacidades Humanas por la IA

    Para aquellos interesados en profundizar más sobre cómo la inteligencia artificial está redefiniendo los límites de lo que puede alcanzar en comparación con las habilidades humanas, pueden explorar los siguientes recursos:

    • Fuente Original del Informe: El AI Index 2024 de Stanford University, que se puede consultar directamente aquí, ofrece un análisis exhaustivo y detallado sobre los avances recientes de la IA y las implicaciones de estos desarrollos.
    • Estudios Adicionales y Discusiones Académicas: Artículos y debates disponibles en plataformas académicas como Google Scholar o ResearchGate que discuten las pruebas MMLU, ImageNet, SQuAD y SuperGLUE, así como los desafíos emergentes en la evaluación de IA.

    ¿Por qué es importante?

    • Implicaciones Éticas y Sociales: El avance de la IA más allá de las capacidades humanas genera interrogantes éticos sobre su uso y control.
    • Necesidad de Nuevas Métricas: La superación de benchmarks humanos exige la creación de nuevos estándares que puedan medir adecuadamente las habilidades avanzadas de la IA.
    • Futuro del Trabajo y la Educación: Con la IA superando habilidades humanas en áreas clave, surge la necesidad de reevaluar el enfoque y contenido de la educación y la formación profesional.

    ¿Cuánto tiempo pasará antes que las IA nos superen en todos los indicadores? ¿Qué atributos humanos nunca podrá superar la IA?

    GRATISConsigue tu curso online.

    Últimos prompts
    • Organizar correos 
    • Análisis de competencia
    • Control de gastos
    • Generador de hipótesis
    • Encriptador de emojis
    Últimos Recursos
    • Firefly (imágenes)
    • Suno (música)
    • GeyHen (humanos digitales
    • HugginFace (modelos IA)

    Más noticias IA

    El creciente uso de la IA generativa entre los abogados

    El creciente uso de la IA generativa entre los abogados

    La adopción de herramientas de inteligencia artificial generativa (GenAI) está transformando la práctica legal interna, con aplicaciones que van desde la redacción de contratos hasta la revisión de documentos legales.

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk ha lanzado una advertencia a Apple tras su anuncio de integrar ChatGPT en sus dispositivos. Musk amenaza con prohibir el uso de iPhones y otros productos Apple en sus empresas, acusando a la empresa de Cupertino de una «violación de seguridad inaceptable».

    Justicia e Inteligencia Artificial: La Balanza y el Algoritmo

    Justicia e Inteligencia Artificial: La Balanza y el Algoritmo

    Justicia e Inteligencia Artificial: La Balanza y el Algoritmo
    Comments

    Written by

    En la era del advenimiento de la inteligencia artificial (IA), la balanza de la justicia tendrá que enfrentarse a nuevos desafíos. Por un lado, el volumen de información legal, la complejidad y la gran cantidad de casos que arrastran a la retardación de justicia abriendo paso a la falta de transparencia, la corrupción y el clientelismo, genera gran presión en los sistemas de justicia de los países, exigiendo soluciones innovadoras que ayuden a superar estos problemas. Es en este contexto que la IA podría (y seguramente lo hará) convertirse en un agente potencialmente transformador; sin embargo, como todo lo que toca “la magia” de la IA, dicha transformación podría ser para bien o para mal, como veremos a continuación.

     

    La IA tiene el potencial de hacer que el sistema judicial sea más eficiente, consistente y accesible. Sin embargo, es crucial abordar los riesgos asociados con su uso, como el sesgo algorítmico, la falta de transparencia y la deshumanización de la justicia.

    Knights Bachelor Bard & ChatGPT

    Un ejemplo de esta transformación se encuentra actualmente en Inglaterra, donde los jueces están utilizando herramientas de IA, como Gemini y ChatGPT, para asistir en la redacción de fallos y sentencias. Esta iniciativa, impulsada por el Poder Judicial de Cortes y Tribunales de Inglaterra, busca modernizar el sistema judicial y agilizar los procesos. Según el informe oficial, la guía para el uso de la IA en la redacción de sentencias es «el primer paso de un conjunto de trabajos futuros propuestos para apoyar al poder judicial en sus interacciones con la IA».

    Sin embargo, la adopción de la IA en el ámbito judicial no está exenta de controversia. El Master of the Rolls Geoffrey Vos, uno de los jueces de mayor rango en Inglaterra y Gales, ha enfatizado la importancia de un uso cuidadoso de la IA, recordando a los jueces que deben «asumir la plena responsabilidad personal por todo lo que produzca» en la interacción con estas herramientas. Esta preocupación refleja el debate más amplio que conlleva el papel de la IA en la toma de decisiones que afectan la vida de las personas.

     El Nuevo Tribunal

    La IA, además de ser una potente herramienta para el análisis de datos y la redacción, está transformando el paisaje del sistema judicial, infiltrándose en cada etapa del proceso y probablemente camino a redefinir las reglas del juego. A modo de ilustrar lo antes dicho, les presento una breve lista de posibles tareas que más temprano que tarde podrían comenzar a asumir las inteligencias artificiales:

    • Investigación y recopilación de pruebas: La IA puede analizar grandes cantidades de datos, como registros telefónicos, correos electrónicos y redes sociales, para identificar patrones y conexiones que podrían ser relevantes para un caso. Esta capacidad puede ayudar a los investigadores y fiscales a descubrir pruebas cruciales de manera más eficiente y a construir casos más sólidos en tiempo récord.
    • Análisis de precedentes legales: La IA puede buscar y analizar vastas bases de datos de jurisprudencia para identificar casos relevantes y precedentes legales que podrían ser aplicables a un caso específico. Esta tarea que es habitualmente morosa y requiere tiempo, podría reducirse a cosas a solo unos minutos. Esto puede ayudar a los abogados a preparar argumentos más sólidos y a los jueces a tomar decisiones más informadas.
    • Predicción de la reincidencia: La IA se utiliza en algunos países para evaluar el riesgo de que un delincuente vuelva a cometer un delito. Estos sistemas analizan datos históricos y factores de riesgo para generar una puntuación de riesgo, que puede influir en las decisiones sobre la libertad condicional o la duración de la sentencia. Sin embargo, el uso de la IA para predecir la reincidencia es un tema controvertido, ya que plantea preocupaciones sobre la discriminación y la precisión de los algoritmos.
    • Gestión de casos: La IA puede automatizar tareas administrativas, como la programación de audiencias, la gestión de documentos y la comunicación con las partes involucradas, reduciendo la burocracia, favoreciendo la transparencia y ahorrando tiempo y costos que podría permitir a los tribunales concentrarse en los aspectos más sustantivos de los casos.

    La implementación de la IA en el proceso judicial no se limita a un solo país o región. La UNESCO, por ejemplo, ha reconocido la importancia de capacitar a los jueces y actores judiciales sobre la IA y su impacto en el estado de derecho. A través de su iniciativa «La IA y el Estado de derecho: Fortalecimiento de capacidades para los sistemas judiciales», la UNESCO busca fomentar un diálogo participativo sobre las innovaciones relacionadas con la IA en el sistema judicial y promover el conocimiento de las innovaciones digitales en este ámbito.

    La IA tiene el potencial de hacer que el sistema judicial sea más eficiente, consistente y accesible. Sin embargo, es crucial abordar los riesgos asociados con su uso, como el sesgo algorítmico, la falta de transparencia y la deshumanización de la justicia. Al hacerlo, podemos aprovechar el poder de la IA para fortalecer el estado de derecho y garantizar que la justicia sea verdaderamente ciega e imparcial.

    Los Riesgos del Oráculo Digital

    La IA trae consigo una serie de ventajas para el sistema judicial:

    • Eficiencia: Los algoritmos pueden procesar grandes cantidades de datos y documentos legales con una velocidad y precisión inigualables para los humanos, liberando tiempo para que los jueces, fiscales y abogados se concentren en aspectos más complejos de los casos.
    • Consistencia: La IA puede ayudar a eliminar los sesgos humanos y las inconsistencias en las decisiones judiciales, asegurando que se apliquen las leyes de manera uniforme y justa.
    • Acceso a la justicia: La IA puede facilitar el acceso a la justicia para personas con recursos limitados, proporcionando herramientas de autoayuda legal y asistencia virtual.

    Sin embargo, también existen riesgos que no podemos ignorar:

    • Sesgo algorítmico: Los algoritmos se entrenan con datos, y si estos datos reflejan sesgos existentes en la sociedad, la IA puede perpetuar y amplificar la discriminación.
    • Falta de transparencia: Las decisiones tomadas por la IA pueden ser difíciles de explicar, lo que genera preocupaciones sobre la falta de transparencia y la rendición de cuentas.
    • Deshumanización de la justicia: La dependencia excesiva de la IA puede llevar a una deshumanización de la justicia, donde las decisiones se basan en datos fríos y algoritmos impersonales, sin tener en cuenta las circunstancias individuales de los casos.
    • Errores y fallas en la IA: Aunque la IA tiene el potencial de mejorar la eficiencia y la precisión en el sistema judicial, no es infalible. Los errores y fallas en los algoritmos o los sistemas de IA pueden conducir a decisiones erróneas o injustas. Si estos errores no se detectan y corrigen a tiempo, podrían socavar la confianza en el sistema judicial.
    • Privacidad y seguridad de los datos: La implementación de la IA en el sistema judicial podría implicar la recopilación, el almacenamiento y el análisis de grandes cantidades de datos personales. Si no se abordan adecuadamente las preocupaciones sobre la privacidad y la seguridad de estos datos, los ciudadanos podrían perder la confianza en la capacidad del sistema judicial para proteger su información y respetar sus derechos fundamentales.

    La Carta Ética de Europa

    La integración de la IA en el sistema judicial ya lleva un tiempo preocupando a Europa, que trata de atravesar las aguas de este diluvio tecnológico sin sacrificar la ética y los derechos humanos. El Consejo de Europa, consciente de esta necesidad, ha creado la Carta Ética Europea sobre el uso de la inteligencia artificial en los sistemas judiciales.

    Esta carta establece cinco principios fundamentales que deben guiar el desarrollo y la aplicación de la IA en el ámbito judicial. El primero es el respeto a los derechos humanos, asegurando que la IA no se convierta en un instrumento de discriminación o violación de derechos fundamentales. La carta también destaca la importancia de la calidad y la seguridad de los sistemas de IA, así como la necesidad de transparencia en sus procesos de toma de decisiones.

    Finalmente, la carta enfatiza la importancia del control del usuario, empoderando a los jueces y otros actores judiciales para que comprendan y cuestionen las recomendaciones de la IA, manteniendo la autonomía humana en el centro del proceso de toma de decisiones. La Carta Ética Europea es un paso importante para que otras naciones encuentren la manera de que la IA en el sistema judicial sea una fuerza para el bien, protegiendo los derechos humanos y promoviendo una justicia justa y equitativa.

    El futuro del tribunal es un horizonte incierto, aunque al igual que en otras áreas, dependerá de nuestras decisiones para saber si la IA será un aliado o el pretexto para nuevas formas de tiranía. Finalmente, se dice que nunca será culpa de la espada, sino del brazo que la empuña.

    Un Horizonte Incierto

    ¿Veremos algún día a jueces robóticos dictando sentencias en tribunales digitales? Si bien es posible que la IA asuma un papel cada vez más importante en el sistema judicial, es poco probable que reemplace por completo a los jueces humanos. La empatía, la sabiduría y el discernimiento siguen siendo cualidades esenciales para la administración de justicia y estas son cualidades que la IA, al menos por ahora, no puede replicar.

    Seguramente que la IA irá moldeando el panorama judicial, pero el futuro del tribunal no está escrito en piedra, sin embargo, me inclino a creer que la última palabra no debe ser la de los algoritmos, sino la de la compasión, la comprensión y la búsqueda incesante de la verdad, pues esta es la manera en la que la balanza debería mantenerse en equilibrio.

    El futuro del tribunal es un horizonte incierto, aunque al igual que en otras áreas, dependerá de nuestras decisiones para saber si la IA será un aliado o el pretexto para nuevas formas de tiranía. Finalmente, se dice que nunca será culpa de la espada, sino del brazo que la empuña.

    GRATISConsigue tu curso online.

    Últimos prompts
    • Organizar correos 
    • Análisis de competencia
    • Control de gastos
    • Generador de hipótesis
    • Encriptador de emojis
    Últimos Recursos
    • Firefly (imágenes)
    • Suno (música)
    • GeyHen (humanos digitales
    • HugginFace (modelos IA)

    Más noticias IA

    El creciente uso de la IA generativa entre los abogados

    El creciente uso de la IA generativa entre los abogados

    La adopción de herramientas de inteligencia artificial generativa (GenAI) está transformando la práctica legal interna, con aplicaciones que van desde la redacción de contratos hasta la revisión de documentos legales.

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk ha lanzado una advertencia a Apple tras su anuncio de integrar ChatGPT en sus dispositivos. Musk amenaza con prohibir el uso de iPhones y otros productos Apple en sus empresas, acusando a la empresa de Cupertino de una «violación de seguridad inaceptable».

    El Fantasma en la Máquina: IA + guerra

    El Fantasma en la Máquina: IA + guerra

    El Fantasma en la Máquina: IA + guerra
    Comments

    Written by

    El campo de batalla de antaño era un lienzo de barro, sangre y acero, pero se está transformando en un escenario espectral. Las sombras de la muerte traída por la inteligencia artificial (IA) se alargan sobre la tierra, prometiendo una nueva era de precisión, eficiencia y, desde luego, nuevas formas de horror. Ya no solo los humanos danzan la macabra danza de la guerra; ahora, hay fantasmas en las máquinas, bailarines mortales sin alma que se unieron a la coreografía letal.

     

    Por donde se lo vea, el espectro de la tecnología en manos equivocadas es una pesadilla que se cierne sobre el mundo y, tristemente, todo apunta a que matar será mucho más fácil. Como dato al respecto, los analistas prevén que en 2028 el volumen del mercado asociado a la IA en el ámbito militar superará los 13.700 millones de dólares.

    Historia de las Armas Inteligentes

    El coqueteo entre la guerra y la tecnología no es nuevo, mucho menos el deseo de crear asesinos mecánicos. Hasta hace poco, hacerlos además inteligentes, pero sin moral y menos corazón o remordimientos, era pura fantasía. Desde las catapultas hasta los misiles balísticos, la búsqueda de una ventaja letal ha impulsado la innovación y muchas veces el mismo progreso humano. Sin embargo, la IA introduce un cambio fundamental. Ya no se trata solo de herramientas, no hay gatillo, ni botón, ni siquiera un temporizador, sino de actores con un grado de autonomía escalofriante.

    Según las Naciones Unidas, el primer caso registrado de un sistema autónomo que mató a una persona, sin la participación de un operador humano, ocurrió en la primavera de 2020 en Libia. Entonces, las tropas del Gobierno de Fayez al Sarraj, también conocido como Gobierno Acuerdo Nacional (GAN) utilizaron drones autónomos de fabricación turca contra soldados que apoyaban al mariscal Jalifa Haftar. Esta tragedia marcó el comienzo de una nueva era, donde la línea entre el operador y la máquina se desdibuja diluyendo la responsabilidad humana sobre víctimas fatales. Hoy en día, la IA ha penetrado casi cada aspecto de la guerra, como veremos a continuación.

    El Arsenal del Espectro

    ¿Con qué armas y habilidades cuentan estos fantasmas mortíferos? La IA se infiltra en cada rincón del campo de batalla bajo la promesa de mantener más seguros a los soldados y reducir los costos de la guerra. Es así como en la actualidad podemos citar algunos desarrollos que ya se han probado en batalla tejiendo una red de capacidades que redefine la forma en que se libran las guerras y se arrebata vidas humanas; a saber:

    • Drones autónomos: Ya no son meros vehículos aéreos no tripulados, sino cazadores silenciosos e implacables. Equipados con sistemas de visión artificial y algoritmos de aprendizaje automático, además de capacidades de enjambre, estos drones pueden identificar, rastrear y atacar objetivos con una precisión escalofriante y sin la necesidad de intervención humana directa. Imaginen un cielo plagado de estas aves de presa robóticas, capaces, quizás, de distinguir entre un combatiente y un civil, pero sin la capacidad de mostrar misericordia, compasión o remordimiento.
    • Sistemas de reconocimiento: La mirada omnipresente de la IA se extiende sobre el campo de batalla, capturando y analizando cada detalle. Los sistemas de reconocimiento facial pueden identificar a individuos específicos en una multitud, mientras que los algoritmos de reconocimiento de objetos pueden clasificar y rastrear vehículos, armas y otros equipos. Esta información se utiliza para crear un mapa dinámico del campo de batalla, donde cada soldado, cada tanque y cada edificio se convierte en una pieza dentro de un tablero de estrategia letal, un videojuego en el que los “personajes” respiran, tienen sangre y familias que los esperan en casa.
    • Análisis predictivo: La IA se convierte en un oráculo de la guerra, utilizando datos históricos y en tiempo real para predecir los movimientos del enemigo y sugerir las estrategias más efectivas. Los algoritmos pueden analizar patrones de comportamiento, identificar debilidades y calcular las probabilidades de éxito de diferentes cursos de acción. El campo de batalla se transforma en un tablero de ajedrez complejo, donde la IA juega con la vida de los soldados, buscando el jaque mate de la victoria a cualquier costo.
    • Logística y mantenimiento: La eficiencia es el mantra de la IA en la guerra. Los algoritmos optimizan las rutas de suministro, gestionan los inventarios y predicen las necesidades de mantenimiento, asegurando que la máquina de guerra funcione sin interrupciones. Los robots se encargan de tareas peligrosas o repetitivas, liberando a los soldados humanos para concentrarse en la lucha. Esta eficiencia fría e impersonal elimina la fricción de la guerra, convirtiéndola en una empresa más eficiente y, por lo tanto, aún más letal.
    War Room moderno

    Sistemas como Lavender y The Gospel, utilizados por el ejército israelí, son la encarnación de esta pesadilla.

    Los Tres Círculos del Infierno

    Vincent Boulanin, investigador del Instituto Internacional de Estudios para la Paz de Estocolmo (SIPRI) describe tres niveles de riesgo en este descenso al infierno tecnológico al que, probablemente, nos conduzca esta peligrosa idea de llevar la IA al campo de batalla:

    • El nivel tecnológico: Esta es la «caja negra» de la IA, donde las decisiones se toman en la oscuridad de algoritmos complejos. En este escenario, la falta de transparencia y la posibilidad de errores impredecibles acechan como demonios invisibles, haciendo que los “daños colaterales” sean más numerosos que nunca y deslicen los parámetros de proporción entre masacre y daño colateral.
    • El nivel estratégico: La deshumanización de la guerra. La distancia emocional que crea la IA puede hacer que los líderes sean más propensos a tomar decisiones letales, desencadenando conflictos con consecuencias impredecibles ya que la cadena de responsabilidades podría diluirse en una maraña de algoritmos y decisiones autónomas. Es probable que echarle la culpa a la IA termine siendo una forma contemporánea de “blanquear” catástrofes y crímenes de guerra.
    • El nivel de proliferación: La IA trabaja como un virus muy eficiente al nivel de la guerra informativa, propagándose con facilidad a actores no estatales y grupos criminales, difundiendo tantos peta bytes de desinformación, que si fueran agua podrían inundar el planeta varias veces por día y, ni qué decir de las falsificaciones o “deep fakes”, tan elaboradas, que ya son casi imposibles de distinguirlas de la realidad.

    Por donde se lo vea, el espectro de la tecnología en manos equivocadas es una pesadilla que se cierne sobre el mundo y, tristemente, todo apunta a que matar será mucho más fácil. Como dato al respecto, los analistas prevén que en 2028 el volumen del mercado asociado a la IA en el ámbito militar superará los 13.700 millones de dólares.

    ¿Podemos evitar este descenso al infierno tecnológico? ¿O estamos condenados a bailar con la muerte en un futuro distópico? La respuesta está en nuestras manos. Debemos confrontar los fantasmas en la máquina, desafiar las promesas vacías de eficiencia y cuestionar la ética de delegar la vida y la muerte a algoritmos sin alma.

    Los Robots y la Distopía Terminator

    El escenario de una guerra librada por robots autónomos vendría a ser el clímax de esta tragedia tecnológica, aunque aún podría esperarse la posibilidad de que las máquinas asesinas se nos salgan de las manos y terminemos luchando contra ellas por nuestra sobrevivencia. Pero, tristemente, existen en este mundo mentes y poderes suficientemente crueles como para soñar y financiar este ballet de metal y fuego donde la empatía y la moral quedarán ausentes y la vida humana pasará a valer menos que un algoritmo. La distopía que una vez imaginamos en la ficción se acerca.

    Aunque aún podamos aferrarnos a la esperanza de que las máquinas asesinas no se rebelen contra sus creadores, la posibilidad de una guerra sin límites, sin empatía y sin moral, es una amenaza escalofriante. ¿Estamos realmente dispuestos a entregar las riendas de nuestro destino a máquinas sin alma y financistas sin moral?

    La IA y la Impunidad Letal

    Sistemas como Lavender y The Gospel, utilizados por el ejército israelí, son la encarnación de esta pesadilla. Estos programas, alimentados por algoritmos complejos y datos de vigilancia, generan listas de objetivos para ataques aéreos, convirtiendo la guerra en un juego macabro de eliminación sin rostro. La distancia emocional que crea la IA, junto con la opacidad de sus procesos de toma de decisiones, difumina la responsabilidad individual y colectiva. Los líderes militares pueden alegar que simplemente están siguiendo las recomendaciones de la IA, mientras que los desarrolladores de algoritmos pueden esconderse detrás de la complejidad técnica de sus creaciones.

    Esta falta de transparencia y responsabilidad crea un ambiente propicio para la impunidad. Las víctimas de ataques erróneos o injustificados se enfrentan a un muro de silencio y de negación, sin poder identificar a los responsables o exigir justicia. La guerra se convierte en un videojuego letal, donde la muerte se inflige a distancia, sin consecuencias aparentes para quienes la ordenan.

    La proliferación de estos sistemas plantea una amenaza grave para el derecho internacional humanitario y los principios fundamentales de la justicia. Si permitimos que la IA se convierta en un instrumento de impunidad, estaremos abriendo la puerta a una nueva era de barbarie, donde la vida humana pierde su valor y la guerra se libra sin límites ni escrúpulos.

    Imagen de Gaza destruida por bombardeos israelíes 2024.

    Reflexiones sobre el Futuro

    ¿Podemos evitar este descenso al infierno tecnológico? ¿O estamos condenados a bailar con la muerte en un futuro distópico? La respuesta está en nuestras manos. Debemos confrontar los fantasmas en la máquina, desafiar las promesas vacías de eficiencia y cuestionar la ética de delegar la vida y la muerte a algoritmos sin alma.

    La comunidad internacional debe actuar, estableciendo regulaciones y límites al desarrollo y uso de la IA en la guerra. Debemos recordar que la tecnología es una herramienta que debemos mantener bajo nuestro dominio. La verdadera fuerza de la humanidad reside en nuestra capacidad de empatía, compasión y razón. Si olvidamos estas virtudes, el escenario de la guerra estará dominado no solo por el espectro de la IA, sino también por quienes tengan el mando de este videojuego macabro.

    La guerra siempre ha sido una tragedia, mas ahora, la IA amenaza con convertirla en un horror inimaginable que amenaza nuestra propia existencia como especie, tal vez tanto como lo hacen las armas nucleares. Por eso es que debemos actuar, antes de que esta fascinación por las entidades digitales se convierta en nuestro último vals.

     

    La Urgencia de una Acción

    La proliferación de la IA en la guerra no es una profecía distante, sino una realidad presente. La tecnología avanza a un ritmo vertiginoso y la ventana de oportunidad para establecer límites éticos y legales se cierra rápidamente a la vez que, varias regiones en el mundo, parecen estar entrando en estado de apremio bélico. Por eso, debemos actuar con urgencia, antes de que sea demasiado tarde.

    La proliferación de la IA en la guerra presenta un desafío similar al que enfrentó la humanidad con la llegada de las armas nucleares. Durante la Guerra Fría, el mundo estuvo al borde de la aniquilación nuclear en varias ocasiones. La amenaza de una destrucción mutua asegurada (MAD) actuó como un elemento disuasorio, pero también creó una atmósfera de miedo e incertidumbre constante. Eventualmente, la comunidad internacional reconoció la necesidad de controlar la proliferación nuclear y establecer límites a su uso.

    Hoy, nos encontramos en una encrucijada similar con la IA. La tecnología avanza rápidamente, y el riesgo de una carrera armamentista descontrolada es real. Debemos aprender de las lecciones del pasado y actuar con urgencia para establecer un marco ético y legal que rija el desarrollo y el uso de la IA en la guerra.

    Aquí hay algunas acciones concretas que expertos sugieren y que  la comunidad internacional puede/debería tomar:

    • Establecer una moratoria internacional sobre el desarrollo y despliegue de sistemas de armas autónomas letales. Esto permitirá un tiempo valioso para discutir las implicaciones éticas y legales de la IA en la guerra, y para desarrollar marcos regulatorios que protejan la vida humana.
    • Promover la transparencia y la responsabilidad en el desarrollo y uso de la IA militar. Los gobiernos deben ser transparentes sobre sus programas de IA y garantizar que existan mecanismos de supervisión y rendición de cuentas.
    • Fortalecer el derecho internacional humanitario para abordar los desafíos que plantea la IA. Es necesario actualizar las leyes de la guerra para tener en cuenta la naturaleza cambiante del conflicto armado y garantizar que la IA se use de manera compatible con los principios humanitarios.
    • Fomentar la educación y el diálogo público sobre la IA y la guerra. La sociedad civil debe participar en un debate informado sobre las implicaciones éticas y sociales de la IA, para garantizar que esta tecnología se desarrolle y use de manera responsable.
    • Invertir en investigación y desarrollo de tecnologías de IA que promuevan la paz y la seguridad. La IA tiene el potencial de ser una fuerza para el bien, y debemos explorar formas de utilizarla para prevenir conflictos, proteger a los civiles y promover el desarrollo sostenible y la estabilidad mundial.

    Una Elección entre la Esperanza y el Horror

    Estamos en una encrucijada. Podemos elegir abrazar la promesa de la IA como una herramienta para la paz y el progreso, o podemos sucumbir al horror de una guerra deshumanizada e impulsada por algoritmos y financistas tan desalmados como sus máquinas. La elección es nuestra.

    Somos nosotros como seres humanos quienes damos forma al futuro. Si elegimos la compasión sobre la crueldad, la cooperación sobre el conflicto y la razón sobre la destrucción, es posible que podremos asegurar que la IA se convierta en un instrumento de esperanza; de lo contrario, no es más que el horror lo que nos espera.

    El fantasma en la máquina viene a desafiarnos, ora para confrontar nuestros propios demonios, ora para reafirmar nuestra humanidad y dar un salto impensable en nuestro camino como especie. El futuro de la guerra y el futuro de nuestra especie han estado siempre entrelazados, por eso, en nuestra respuesta a los desafíos encontraremos el camino a la prosperidad o la extinción.

    GRATISConsigue tu curso online.

    Últimos prompts
    • Organizar correos 
    • Análisis de competencia
    • Control de gastos
    • Generador de hipótesis
    • Encriptador de emojis
    Últimos Recursos
    • Firefly (imágenes)
    • Suno (música)
    • GeyHen (humanos digitales
    • HugginFace (modelos IA)

    Más noticias IA

    El creciente uso de la IA generativa entre los abogados

    El creciente uso de la IA generativa entre los abogados

    La adopción de herramientas de inteligencia artificial generativa (GenAI) está transformando la práctica legal interna, con aplicaciones que van desde la redacción de contratos hasta la revisión de documentos legales.

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk amenaza con prohibir dispositivos Apple en sus empresas

    Elon Musk ha lanzado una advertencia a Apple tras su anuncio de integrar ChatGPT en sus dispositivos. Musk amenaza con prohibir el uso de iPhones y otros productos Apple en sus empresas, acusando a la empresa de Cupertino de una «violación de seguridad inaceptable».