Noticias de Tecnología e Innovación (especial IA)

DeepSeek Sacude Silicon Valley y Cambia Escenario de la IA

La empresa china DeepSeek ha generado una gran conmoción en Silicon Valley tras lanzar modelos de inteligencia artificial abiertos que rivalizan con la tecnología de gigantes como OpenAI, Meta y Google. Su rápida eficiencia y costos significativamente menores han inquietado tanto a la industria tecnológica como al gobierno de EE. UU., que teme perder ventaja en la carrera global por la IA.

Una de las claves del éxito de DeepSeek ha sido su enfoque en el aprendizaje por refuerzo puro, una técnica de ensayo y error que permite a los modelos mejorar con la experiencia. Esta metodología, utilizada en su modelo R1, ha demostrado resultados comparables a los modelos cerrados de OpenAI, lo que refuerza la idea de que el progreso en IA se está acelerando.

El impacto de DeepSeek podría influir en la política de IA de EE. UU., impulsando una mayor inversión en modelos abiertos para competir con China. Figuras influyentes como Marc Andreessen han calificado este momento como el "Sputnik de la IA", señalando que EE. UU. debe redoblar esfuerzos en innovación abierta. Incluso exescépticos como el ex CEO de Google, Eric Schmidt, han cambiado de postura y ahora apoyan el impulso de modelos abiertos en Occidente.

Sin embargo, DeepSeek no está exento de críticas. Hay dudas sobre su transparencia, con informes que sugieren censura en respuestas sobre China y posibles infracciones de propiedad intelectual al usar modelos de OpenAI para entrenar los suyos. Además, aunque sus modelos son más eficientes, aún presentan problemas de precisión, con errores en un 83% de respuestas sobre noticias.

A pesar de las controversias, DeepSeek ha dejado claro que la carrera por la IA es más competitiva que nunca. Ahora queda ver cómo responderán las empresas y los legisladores de EE. UU. ante este desafío.

🔗 Leer más: TechCrunch

Si quieres saber más sobre DeepSeek lee este FAQ de Ben Thompson

 

Ex-CEO de Intel Defiende a Nvidia y Desestima el Impacto de DeepSeek en el Mercado

El reciente anuncio de DeepSeek, una startup china que presentó un modelo de IA hasta 50 veces más barato de entrenar y operar que los de OpenAI, provocó una fuerte reacción en el mercado. En pocos días, la caída de las acciones tecnológicas eliminó casi $600 mil millones del valor de Nvidia, ya que los inversores temían que la demanda de sus procesadores disminuyera.

Sin embargo, el ex-CEO de Intel, Pat Gelsinger, sostiene que esta reacción es errónea y que la reducción en el costo de la IA expandirá el mercado en lugar de reducirlo. Según Gelsinger, la historia de la computación demuestra que tecnologías más accesibles generan mayor adopción y crecimiento, como ocurrió con las PC y los dispositivos móviles.

Gelsinger también destaca que las restricciones impulsan la innovación, señalando cómo DeepSeek logró su avance a pesar de enfrentar limitaciones de hardware y sanciones comerciales. Además, resalta que los ecosistemas abiertos fomentan el progreso tecnológico, como ocurrió con Linux, Wi-Fi y USB, y advierte contra la tendencia de desarrollar modelos de IA cerrados y propietarios.

A pesar del avance de DeepSeek, la demanda de chips avanzados de Nvidia, AMD e Intel seguirá siendo alta. Aunque la IA de DeepSeek puede ejecutarse en dispositivos locales, su entrenamiento aún requiere infraestructura de centros de datos con hardware de alto rendimiento. Los expertos coinciden en que la reciente caída de las acciones podría ser una oportunidad de compra para inversionistas a largo plazo.

🔗 Leer más: Toms Hardware

 

Aunque no lo Creas, la IA no es tan Buena para la Historia

Aunque los modelos de inteligencia artificial destacan en tareas como la programación o la generación de contenido, un reciente estudio demuestra que siguen teniendo serias dificultades con la historia. Investigadores del Complexity Science Hub (CSH) en Austria evaluaron a GPT-4, Llama y Gemini con un nuevo estándar de precisión histórica llamado Hist-LLM, basado en el vasto Seshat Global History Databank.

Los resultados fueron decepcionantes: el mejor modelo, GPT-4 Turbo, solo logró un 46% de precisión, apenas mejor que el azar. Un ejemplo de error fue cuando la IA afirmó incorrectamente que Egipto tenía armaduras de escamas en un período específico, cuando en realidad esta tecnología apareció 1,500 años después.

Según la investigadora Maria del Rio-Chanona, los modelos de IA suelen extrapolar información de datos más populares y pasan por alto hechos menos documentados. Por ejemplo, cuando se les preguntó si Egipto tenía un ejército permanente en cierto período, los modelos respondieron que sí, probablemente debido a la abundante información sobre ejércitos en otras civilizaciones antiguas como Persia.

Además, los investigadores notaron sesgos en las respuestas, ya que las IAs fueron menos precisas en preguntas sobre regiones como África subsahariana, lo que sugiere limitaciones en sus datos de entrenamiento.

A pesar de estos fallos, los científicos creen que la IA puede mejorar y eventualmente ser una herramienta útil para historiadores. Actualmente, trabajan en ampliar el benchmark con datos más diversos y preguntas más complejas para mejorar la precisión de estos modelos en el ámbito histórico.

🔗 Leer más: TechCrunch

 

"Humanity’s Last Exam" Pone a Prueba los Límites de la IA y Revela sus Fallas

El Centro para la Seguridad en IA (CAIS) y Scale AI han presentado los resultados de Humanity’s Last Exam, un nuevo benchmark diseñado para evaluar si los modelos de IA pueden alcanzar niveles de conocimiento y razonamiento expertos. A pesar de los avances en inteligencia artificial, los modelos más avanzados, como GPT-4o, Claude 3.5 y Gemini 1.5, solo lograron responder correctamente menos del 10% de las preguntas.

El examen fue desarrollado en colaboración con más de 500 instituciones y 1,000 investigadores en 50 países. Se recopilaron 70,000 preguntas, de las cuales 3,000 fueron seleccionadas para la prueba final, cubriendo áreas como matemáticas, ciencias naturales y humanidades. El objetivo era superar la saturación de benchmarks previos y evaluar si la IA realmente comprende información más allá de lo que ha sido entrenada para responder.

Uno de los retos más complejos incluyó una pregunta sobre la anatomía de los colibríes, exigiendo respuestas precisas y especializadas. A pesar de algunos aciertos, los investigadores detectaron que los modelos aún tienen dificultades con el razonamiento lógico profundo y la precisión en temas altamente especializados.

Los organizadores del proyecto planean hacer pública la base de datos para futuras investigaciones y retendrán un subconjunto de preguntas para mantener la integridad de futuras evaluaciones. Con este benchmark, no solo se mide el estado actual de la IA, sino que se establecen las bases para mejorar su desarrollo y capacidades en el futuro.

🔗 Leer más: Scale

 

"Humphrey", IA al Rescate de la Burocracia del Reino Unido

El gobierno del Reino Unido ha anunciado un ambicioso plan para integrar inteligencia artificial en la administración pública, con el objetivo de reducir la burocracia, mejorar la eficiencia y optimizar el uso de recursos. Entre las iniciativas más destacadas se encuentra "Humphrey", un conjunto de herramientas basadas en IA diseñadas para ayudar a los funcionarios en tareas como el análisis de documentos, la redacción de informes y la gestión de datos legales.

El proyecto, impulsado por el Departamento de Ciencia, Innovación y Tecnología (DSIT) junto con otras agencias gubernamentales, busca reemplazar procesos obsoletos y mejorar la comunicación entre departamentos, eliminando la necesidad de trámites redundantes. Entre las aplicaciones de Humphrey se incluyen: Consult, una IA capaz de analizar miles de respuestas a consultas gubernamentales en pocas horas, Parlex, que permite a los funcionarios buscar y revisar conversaciones parlamentarias relevantes, Minute, un sistema de transcripción segura para reuniones, Redbox, una herramienta para preparar informes y documentos de políticas públicas y Lex, que facilita el acceso a bases de datos legales.

Además del uso interno de la IA, el gobierno busca acelerar y simplificar los servicios públicos, eliminando trámites engorrosos como la necesidad de llamadas telefónicas masivas a oficinas gubernamentales o requisitos innecesarios para registros oficiales. Se estima que estas mejoras podrían ahorrar hasta £45 mil millones al año, aunque no está claro si este cálculo considera los costos de desarrollo y mantenimiento de las nuevas herramientas.

Otro aspecto clave del plan es la colaboración entre distintos departamentos, lo que permitiría compartir información en tiempo real para mejorar la prestación de servicios y fortalecer investigaciones sobre fraude fiscal. Sin embargo, esta estrategia ha generado inquietudes sobre la protección de datos personales y la privacidad, ya que compartir información de manera indiscriminada podría representar riesgos para los ciudadanos.

Aunque el gobierno británico muestra un fuerte compromiso con la digitalización, el éxito de estas iniciativas dependerá de la inversión adecuada, la cooperación interinstitucional y la confianza en la tecnología. A medida que se implementen estos cambios, quedará por ver hasta qué punto la IA puede transformar realmente la administración pública sin comprometer la seguridad y los derechos de los ciudadanos.

🔗 Leer más: TechCrunch

 

El Pentágono Acelera su "Cadena de Muerte" con IA, pero Asegura que Humanos Siguen en Control

El Departamento de Defensa de EE. UU. ha comenzado a integrar inteligencia artificial generativa en sus sistemas militares para mejorar la identificación, seguimiento y evaluación de amenazas. Aunque estas herramientas no se usan directamente como armas, aceleran significativamente la toma de decisiones en combate, según la jefa digital y de IA del Pentágono, Radha Plumb.

La "cadena de muerte" militar —el proceso de detectar y eliminar amenazas— se ha vuelto más eficiente gracias a modelos de IA de empresas como OpenAI, Anthropic y Meta, que recientemente flexibilizaron sus políticas para permitir el uso gubernamental. Sin embargo, estas compañías todavía prohíben que su tecnología cause daño directo a humanos.

El Pentágono ha estado formando alianzas con gigantes tecnológicos y contratistas de defensa. Meta colabora con Lockheed Martin y Booz Allen, mientras que Anthropic trabaja con Palantir y OpenAI con Anduril. A pesar de las restricciones, el uso de IA en defensa sigue creciendo, lo que podría empujar a Silicon Valley a relajar aún más sus políticas sobre aplicaciones militares.

El debate sobre armas autónomas sigue siendo polémico. Aunque algunos argumentan que el ejército de EE. UU. ya utiliza sistemas armados con cierto grado de autonomía, el Pentágono insiste en que siempre habrá humanos tomando las decisiones finales sobre el uso de la fuerza.

En el ámbito de la seguridad, algunos expertos creen que es inevitable que los gobiernos usen IA en defensa, por lo que es fundamental colaborar con el Pentágono para garantizar un desarrollo responsable de estas tecnologías. Sin embargo, el tema sigue siendo delicado, especialmente tras las protestas de empleados de Google y Amazon contra contratos militares el año pasado.

A medida que la IA continúa transformando la guerra moderna, la línea entre colaboración humano-máquina y autonomía total sigue siendo un tema de intenso debate.

🔗 Leer más: TechCrunch

 

Ni China ni EEUU ganarían la carrera armamentista Usando IA

Artículo de MIT Tech Review argumenta que la competencia entre Estados Unidos y China en inteligencia artificial está siendo erróneamente planteada como una carrera de suma cero, cuando en realidad representa una oportunidad para la colaboración global.

Inicialmente, EE. UU. intentó frenar el avance de China con restricciones a la exportación de semiconductores y tecnologías avanzadas. Sin embargo, estas medidas han impulsado a China a desarrollar soluciones propias más eficientes, reduciendo la brecha tecnológica. Mientras tanto, las tensiones geopolíticas, especialmente en torno a Taiwán y la producción de chips de TSMC, agravan el panorama.

El artículo destaca que el verdadero peligro no es que un país "gane" en IA, sino el riesgo de su uso indebido por actores malintencionados, como organizaciones extremistas o grupos criminales. Dado que la IA es una tecnología asimétrica, similar a las armas cibernéticas, es difícil contener su uso si cae en las manos equivocadas.

En lugar de profundizar la confrontación, los autores proponen que EE. UU. y China trabajen juntos en gobernanza y regulación de la IA, estableciendo estándares de seguridad y promoviendo el desarrollo conjunto de tecnologías beneficiosas para la humanidad, como avances en salud, educación y mitigación del cambio climático.

El artículo finaliza con un llamado a abandonar la mentalidad de competencia destructiva y a fomentar una estrategia de cooperación internacional que maximice el potencial de la IA para el bien común.

🔗 Leer más: MIT Technology Review

DeepSeek En Línea Recoge Extensiva Información de sus Usuarios

El modelo de IA R1 de DeepSeek, que ya había sacudido el mercado al provocar una caída masiva en las acciones tecnológicas, ahora enfrenta serias preocupaciones sobre privacidad. Se ha revelado que la compañía recopila una gran cantidad de datos de sus usuarios en línea, incluidos teclas pulsadas, contraseñas, imágenes, archivos y otra información personal. Estos datos se almacenan en servidores en China, lo que ha generado inquietudes sobre el acceso del gobierno chino a esta información.

Según su política de privacidad, DeepSeek rastrea direcciones IP, modelos de dispositivos, patrones de escritura y cookies, y no descarta compartir datos con anunciantes y otras empresas. Además, su "grupo corporativo" interno también accede a la información para tareas como seguridad, investigación y moderación de contenido.

El hecho de que los datos sean almacenados en China podría poner a DeepSeek en el centro de un debate político similar al de TikTok, que en su momento enfrentó intentos de prohibición en EE. UU. Si bien la administración de Trump ha sido más indulgente con las empresas tecnológicas chinas, su cercanía con figuras como Mark Zuckerberg y Sam Altman—cuyas compañías compiten con DeepSeek—podría significar que la empresa enfrente un mayor escrutinio.

R1 es un modelo open-source que puede ejecutarse localmente sin exponer datos, pero su versión en la nube y aplicación móvil permiten a DeepSeek recopilar y gestionar información de los usuarios. A pesar de sus avances en eficiencia—requiriendo solo 2.8 millones de horas de GPU frente a las 30.8 millones de Llama 3 de Meta—su enfoque en privacidad podría traerle desafíos regulatorios en el futuro.

🔗 Leer más: Tom´s Hardware

 
Anterior
Anterior

Innovación en la Enseñanza: El profesor Martin Valcke comparte estrategias sobre motivación en ESPOL

Siguiente
Siguiente

Techstars EDL Quito 2025: Conectando Líderes para Fortalecer Comunidades