Advierten riesgos del acceso a datos biológicos por parte de la IA
Ciertos datos podrían facilitar la creación o mejora de virus peligrosos capaces de provocar pandemias

Más de 100 investigadores de instituciones académicas de primer nivel han lanzado una advertencia sobre los riesgos que implica el acceso irrestricto a ciertos conjuntos de datos biológicos en un contexto de rápido avance de la inteligencia artificial.
En una carta abierta firmada por expertos de universidades como Johns Hopkins University, University of Oxford, Fordham University y Stanford University, los autores señalan que, si bien la ciencia abierta ha acelerado enormemente el descubrimiento científico, existe un subconjunto reducido de datos biológicos que puede representar un serio riesgo para la bioseguridad si se utiliza de forma indebida.
El núcleo de la preocupación radica en que los modelos de IA aplicados a la biología pueden analizar secuencias genéticas, predecir mutaciones y generar variantes más transmisibles de patógenos. Estas capacidades, calificadas por los investigadores como una “capacidad preocupante”, podrían facilitar la creación o mejora de virus peligrosos capaces de provocar pandemias en humanos, animales o incluso afectar ecosistemas completos.
Los firmantes no proponen cerrar el acceso a la información científica en general. Por el contrario, subrayan que la mayoría de los datos biológicos debe seguir siendo abierta. Sin embargo, plantean que la información relacionada con patógenos de alto riesgo necesita controles más estrictos antes de estar disponible para desarrolladores de IA. Actualmente no existe un marco universal que regule este tipo de datos, y aunque algunos desarrolladores han tomado medidas voluntarias, los investigadores consideran indispensable establecer reglas claras y homogéneas.
Como ejemplo, mencionan modelos avanzados de IA biológica como Evo y ESM3. El modelo Evo, desarrollado por investigadores del Arc Institute, Stanford y TogetherAI, excluyó deliberadamente datos de patógenos humanos de su entrenamiento para evitar posibles usos maliciosos. Evo 2, de código abierto, es capaz de predecir efectos de mutaciones de ADN, diseñar nuevos genomas e identificar patrones genéticos, lo que ilustra tanto su potencial científico como los riesgos asociados.
Para abordar este dilema, los investigadores proponen un marco de gobernanza basado en cinco niveles de Biosecurity Data Level (BDL), que clasifica los datos según su nivel de riesgo. Desde BDL-0, que incluye datos biológicos cotidianos sin restricciones, hasta BDL-4, que abarca información sobre virus humanos modificados para aumentar su transmisibilidad, sometida a los controles más estrictos.
Además, la carta sugiere herramientas técnicas para garantizar un acceso seguro, como marcas de agua digitales en los datos, sistemas de trazabilidad, registros de auditoría y biometría conductual para identificar usos indebidos. En conclusión, los autores enfatizan que encontrar un equilibrio entre apertura científica y seguridad será clave a medida que la IA biológica se vuelva más potente y accesible.
Inteligencia artificial: Google lanza herramienta que genera música mediante una imagen
Google anunció este miércoles que su inteligencia artificial (IA), Gemini, ya puede generar pistas musicales de 30 segundos, 'realistas y musicalmente complejas', a partir de un texto o una imagen como referencia. Esta nueva herramienta, llamada Lyria 3, está disponible -- leer más
Noticias del tema