Noticias de Tecnología e Innovación
Código generado por IA puede estar reduciendo la calidad del software
Un nuevo informe de GitClear ha revelado que el auge de las herramientas de codificación basadas en inteligencia artificial está generando una crisis de deuda técnica sin precedentes. El estudio analizó más de 211 millones de líneas de código modificadas entre 2020 y 2024 en repositorios privados y 25 de los mayores proyectos de código abierto, encontrando un alarmante aumento en la duplicación de código y una disminución en su calidad.
Según los datos, el uso de asistentes de codificación con IA ha provocado un incremento de 8 veces en la frecuencia de bloques de código duplicados de cinco o más líneas. Además, en 2024, el 46% de las modificaciones en el código correspondieron a nuevas líneas en lugar de refactorización o reutilización, lo que sugiere una tendencia hacia sistemas redundantes y menos eficientes.
Los desarrolladores también enfrentan un creciente tiempo de depuración y solución de vulnerabilidades. El informe State of Software Delivery 2025 de Harness confirma que la productividad aparente generada por IA no se traduce en estabilidad: aunque el código se escribe más rápido, la confiabilidad en la entrega ha disminuido un 7.2%.
Otro problema clave es el impacto financiero del código duplicado, que no solo dificulta el mantenimiento sino que incrementa los costos de almacenamiento en la nube y el riesgo de errores. Estudios académicos han demostrado que los bloques de código clonados aumentan las tasas de defectos, dificultando la escalabilidad y sostenibilidad del software.
Si bien la IA es una herramienta valiosa, los expertos advierten que el modelo actual de medición de productividad basado en la cantidad de líneas de código generadas puede llevar al software a una expansión descontrolada y una necesidad de mantenimiento indefinido. Para mitigar estos riesgos, los desarrolladores deben enfocarse en estrategias de refactorización y reutilización, en lugar de depender exclusivamente de la generación automática de código.
🔗 Leer más: LeadDev
Chip de Microsoft promete acercar la computación cuántica a solo unos años
Microsoft ha revelado su nuevo chip cuántico Majorana 1, un avance que, según la compañía, podría hacer realidad la computación cuántica a gran escala en solo unos años, en lugar de décadas. Este chip, basado en un estado exótico de la materia denominado topoconductor, promete qubits más pequeños, rápidos y estables, resolviendo uno de los mayores desafíos de la computación cuántica: la corrección de errores.
El Majorana 1 es el resultado de casi dos décadas de investigación y se basa en un enfoque de qubits topológicos, diferentes a los superconductores utilizados por competidores como Google e IBM. Microsoft afirma que esta tecnología permitirá superar la barrera del millón de qubits en un solo chip, un umbral clave para que la computación cuántica supere a la clásica en aplicaciones del mundo real.
Entre sus posibles aplicaciones, Microsoft menciona la optimización de procesos industriales, la creación de materiales autoreparables, la mejora de la fertilidad del suelo y la simulación precisa de moléculas para el desarrollo de fármacos. "El ordenador cuántico enseñará a la IA el lenguaje de la naturaleza", explicó Matthias Troyer, investigador de Microsoft.
Sin embargo, algunos expertos se muestran cautos y advierten que, aunque el enfoque es prometedor, aún quedan desafíos técnicos por resolver antes de considerar este avance un éxito definitivo. Microsoft describe su estrategia como un “riesgo alto, pero con grandes recompensas”, confiando en que los próximos años demostrarán el potencial real de su tecnología cuántica.
🔗 Leer más: TechSpot
Toma el doble de tiempo y dinero construir fábricas de semiconductores en EE.UU. que en Taiwán
Un nuevo informe revela que construir plantas de semiconductores en Estados Unidos es significativamente más lento y costoso que en Taiwán, lo que pone en desventaja a la industria occidental frente a los gigantes asiáticos. Según Semiconductor Digest, las fábricas en Taiwán se completan en un promedio de 20 meses, mientras que en EE.UU. el proceso tarda alrededor de 38 meses. Además, los costos de construcción en EE.UU. son aproximadamente el doble en comparación con Taiwán, aunque el costo del equipamiento de fabricación se mantiene similar en ambas regiones.
Las diferencias se deben principalmente a la experiencia y eficiencia de Taiwán en la construcción de fábricas de semiconductores. Su cadena de suministro está altamente optimizada, lo que permite operar con menos detalles en los planos y una mayor rapidez en la ejecución. Según Herbert Blaschitz, vicepresidente de Exyte, la empresa responsable de grandes proyectos industriales, la industria taiwanesa "sabe lo que está haciendo", lo que les permite ser extremadamente productivos.
El caso de la fábrica de TSMC en Arizona ilustra estas dificultades en EE.UU., donde la empresa ha enfrentado problemas con la contratación de mano de obra calificada, diferencias culturales y regulaciones complejas. Este no es un problema exclusivo de TSMC, sino una brecha estructural en la eficiencia de construcción entre ambos países.
El gobierno de EE.UU. busca cerrar esta brecha con la CHIPS Act, una iniciativa para fortalecer la manufactura nacional de chips. Sin embargo, expertos sugieren que es necesario adoptar estrategias más innovadoras, como la comisión virtual, que utiliza modelos digitales para optimizar el diseño y planificación antes de la construcción física de las fábricas.
🔗 Leer más: TechSpot
Investigación en Chile propone convertir la niebla en agua
La ciudad de Alto Hospicio, ubicada en el desierto de Atacama, enfrenta una grave crisis de abastecimiento de agua, ya que su principal fuente proviene de acuíferos subterráneos recargados hace más de 10,000 años. Ante este escenario, un estudio reciente evaluó el potencial de recolección de agua de niebla como una alternativa sostenible para complementar el suministro hídrico en la región.
La investigación utilizó dos métodos principales: la instalación de recolectores de niebla estándar (Standard Fog Collectors, SFCs) y el modelo AMARU, que estima la cantidad de agua que puede capturarse en diferentes ubicaciones y estaciones del año. Los resultados muestran que las zonas al noreste y sureste de la ciudad presentan tasas de recolección de hasta 10 litros por metro cuadrado al día, lo que sugiere que la niebla podría convertirse en una fuente viable de agua para el consumo humano, el riego de áreas verdes urbanas y la agricultura hidropónica.
El estudio subraya la necesidad de incluir el agua atmosférica en las políticas locales y recomienda estrategias como la instalación de grandes recolectores de niebla cerca de los asentamientos urbanos. Actualmente, miles de familias en asentamientos informales dependen del suministro de agua mediante camiones cisterna, un método costoso e insostenible. Si se implementaran sistemas de captación de niebla, sería posible reducir la presión sobre los acuíferos y mejorar el acceso al agua potable.
Además, el informe destaca la importancia de realizar más estudios para calibrar con precisión el potencial de recolección de agua de niebla en la zona. También sugiere la integración de esta técnica con otras fuentes no convencionales de agua, como el reúso y la desalación. Con un enfoque estratégico, Alto Hospicio podría beneficiarse de esta solución innovadora para mitigar la escasez de agua y mejorar la resiliencia hídrica de la comunidad.
🔗 Leer más: Frontiers in Environmental Science
Primera interfaz cerebro-computadora bidireccional del mundo
Científicos de la Universidad de Tianjin y la Universidad de Tsinghua han desarrollado la primera interfaz cerebro-computadora (BCI) de doble bucle en el mundo, logrando una eficiencia 100 veces superior a los modelos tradicionales. A diferencia de los sistemas actuales, que solo decodifican señales cerebrales, esta innovación permite una comunicación bidireccional en la que el cerebro y la máquina aprenden el uno del otro, mejorando la estabilidad y precisión de la interacción.
El nuevo sistema utiliza un chip memristor de bajo consumo que imita redes neuronales, permitiendo un aprendizaje mutuo en tiempo real. Este enfoque ha demostrado un aumento del 20% en la precisión del control mental en pruebas realizadas con 10 participantes a lo largo de seis horas. Además, permite controlar dispositivos con cuatro grados de libertad (movimiento en todas direcciones y rotación), superando las limitaciones de los sistemas convencionales.
Las aplicaciones potenciales van desde la rehabilitación médica hasta el control de drones y dispositivos electrónicos sin necesidad de intervención física. Con un consumo energético 1,000 veces menor que los BCIs actuales, esta tecnología representa un gran avance en la integración de la inteligencia cerebral con sistemas digitales.
Este desarrollo refuerza el liderazgo de China en interfaces cerebro-máquina, rivalizando con enfoques como Neuralink de Elon Musk, que se centra en implantes invasivos. La investigación ha sido publicada en Nature Electronics y marca un hito en la evolución de la interacción entre el cerebro humano y la inteligencia artificial.
🔗 Leer más: Interesting Engineering
El hambre de datos de la IA generativa amenaza la apertura de la internet
La creciente competencia entre rastreadores de inteligencia artificial (crawlers) y sitios web amenaza con transformar el internet en un espacio más restringido y menos accesible. Históricamente, los rastreadores han sido herramientas clave para motores de búsqueda, agregadores de precios y monitoreo de seguridad en línea. Sin embargo, la explosión de la IA generativa ha llevado a muchas plataformas a bloquear estos bots por temor a que su contenido sea utilizado para entrenar modelos que compitan con sus servicios.
Empresas como OpenAI utilizan rastreadores para recopilar datos de Wikipedia, foros de programación y sitios de noticias, lo que ha generado resistencia por parte de los propietarios de estos contenidos. Sitios como Reddit y The New York Times han iniciado demandas y restricciones para evitar el uso no autorizado de sus datos en el desarrollo de IA. En respuesta, plataformas de seguridad como Cloudflare y startups especializadas han comenzado a ofrecer herramientas para bloquear rastreadores de manera más efectiva.
Esta batalla ha provocado un efecto colateral preocupante: la proliferación de muros de pago, sistemas de registro y restricciones de acceso que afectan tanto a los rastreadores de IA como a los usuarios legítimos. Investigadores académicos, periodistas y archivistas digitales dependen de estos bots para recopilar información de manera ética, pero ahora enfrentan crecientes obstáculos en su trabajo.
El conflicto también ha llevado a la concentración de datos en manos de pocas empresas que pueden permitirse acuerdos exclusivos con proveedores de IA. Este escenario podría debilitar la diversidad de información disponible y erosionar la apertura de internet. Expertos advierten que es urgente establecer regulaciones que protejan los derechos de los creadores de contenido sin sacrificar el acceso equitativo a la información.
🔗 Leer más: MIT Technology Review