Modelo computacional que puso al mundo en cuarentena ha resultado ser ‘anticientífico y está lleno de errores’

 

El modelo computacional que puso al mundo en cuarentena ha resultado ser ‘anticientífico y está lleno de errores’. El código fuente completo del modelo computacional que impuso el Imperial College de Londres para predecir las tazas de propagación e infección de COVID-19, por fin ha sido publicado en GitHub. Y según una revisión completa practicada por un ex ingeniero de software anónimo de Google, el modelo está “tan profundamente plagado de errores” que literalmente “la información que produce es basura, independientemente de la información que se ingrese al mismo”.

Este fue el modelo impuesto por la OMS a los tomadores de decisiones alrededor del mundo. Y el resultado que estamos experimentando a partir de este modelo “basura” es el de una cuarentena planetaria que está acelerando la destrucción de la economía global, que ya era de por sí insolvente antes de la crisis de COVID-16. Y realmente no sabemos si la cuarentena era necesario o no, porque aún no tenemos datos reales (aparte de los de Suecia), y en cambio sí tenemos la evidencia de un modelo computacional severamente defectuoso. La pregunta sigue siendo: ¿Por qué el equipo del Imperial College de Londres no se dio cuenta de que su software era tan defectuoso?

 

Fue un modelo computacional desarrollado por el Imperial College de Londres el que pronosticó 500,000 muertes en el Reino Unido (y 2.5 millones en los EE.UU.) lo que influyó a los tomadores de decisiones para optar por las cuarentenas totales en vez de aplicar un enfoque de “inmunidad colectiva” al estilo sueco.24 modelo computacional 2

El modelo fue desarrollado por un equipo encabezado por Neil Ferguson, (un charlatán) quien recientemente renunció a su puesto como asesor del gobierno del Reino Unido después de que un importante medio británico divulgó cómo el propio Ferguson violaba las directivas de cuarentena y aislamiento social para mantener una aventura amorosa con una mujer casada.

El código fuente detrás del modelo debía estar disponible para el público, y después de numerosos retrasos y excusas para hacerlo, finalmente se publicó en GitHub.

Un ex ingeniero de software anónimo de Google ha llevado a cabo una revisión del código, y dice que el código del repositorio de GitHub ha sido muy utilizado por los ingenieros de Microsoft y otros, en un esfuerzo por poner el código en forma para exponerlo de manera segura al público. Por desgracia, parecen haber fallado y en la versión lanzada persisten numerosos defectos y errores del software original. Las solicitudes de la versión sin editar del código original detrás del modelo no han recibido respuesta.

El resultado más preocupante de la revisión es que el código produce “resultados no deterministas”.

“Salidas no deterministas. Debido a errores, el código puede producir resultados muy diferentes con entradas idénticas. Rutinariamente actúan como si esto no fuera importante.
Este problema hace que el código sea inutilizable para fines científicos, dado que una parte clave del método científico es la capacidad de replicar resultados. Sin replicación, los hallazgos podrían no ser reales, ya que el campo de la psicología ha estado descubriendo su costo. Incluso si se lanzó su código original, es evidente que los mismos números que en el Informe 9 podrían no provenir de él.”

La documentación ofrece la racionalización de que las iteraciones del modelo deben ejecutarse y luego promediar resultados diferentes para producir un modelo resultante. Sin embargo, cualquier software decente, especialmente uno que esté creando un modelo, debería producir el mismo resultado si recibe los mismos datos iniciales, o “semilla”. Este código no lo hace.

La documentación dice:

“El modelo es estocástico. Se deben realizar varias ejecuciones con diferentes semillas para ver el comportamiento promedio.

‘Estocástico’ es solo un termino que suena muy científico para referirse a ‘aleatorio’. Eso no es un problema si la aleatoriedad es seudoaleatoria intencional, es decir, la aleatoriedad se deriva de una ‘semilla’ inicial que se itera para producir los números aleatorios. Tal aleatoriedad se usa a menudo en las técnicas de Monte Carlo. Es seguro porque la semilla puede registrarse y los mismos números (pseudo-) aleatorios producidos a partir de ella en el futuro. Cualquier niño que haya jugado Minecraft está familiarizado con la pseudoaleatoriedad porque Minecraft le da las semillas que usa para generar mundos aleatorios, por lo que al compartir semillas puede compartir mundos.

Claramente, la documentación quiere que pensemos que, dada una semilla inicial, el modelo siempre producirá los mismos resultados.

La investigación revela la verdad: el código produce resultados críticamente diferentes, incluso para semillas y parámetros iniciales idénticos.”

En un caso, un equipo de la Universidad de Edimburgo intentó modificar el código para poder almacenar los datos en tablas que harían más eficiente la carga y ejecución. Dejando a un lado los problemas de rendimiento, simplemente mover u optimizar de dónde provienen los datos de entrada no debería tener ningún efecto en la salida del procesamiento, dados los mismos datos de entrada. Sin embargo, lo que el equipo de Edimburgo encontró fue que esta optimización produjo una variación en la producción, “las predicciones resultantes variaron en alrededor de 80,000 muertes después de 80 días”, que es casi 3 veces el número total de muertes en el Reino Unido hasta la fecha.

Edimburgo informó el error al Imperial College, que lo descartó como “un pequeño no determinismo” y les dijo que el problema desaparece si se ejecuta el código en una sola CPU (lo que el crítico señala “está muy lejos de nuestra realidad con respecto a supercomputación”).

Por desgracia, el equipo de Edimburgo descubrió que el software todavía producía resultados diferentes si se ejecutaba en una sola CPU. Y no debería hacerlo, siempre que esté codificado correctamente. Ya sea que el software se ejecute en una sola CPU o en varios subprocesos, la única diferencia debería ser la velocidad a la que se produce la salida. Dadas las mismas condiciones de entrada, las salidas deben ser las mismas. Pero es así, y el Imperial College lo sabía.

“No obstante, así es como Imperial College usa el código: saben que se rompe cuando intentan ejecutarlo más rápido. Al leer el código resulta claro que en 2014 el Imperial intentó hacerlo usable en múltiples CPU para acelerarlo, pero nunca lo hizo funcionar de manera confiable. Se sabe que este tipo de programación es difícil y generalmente requiere ingenieros experimentados para obtener buenos resultados. Los resultados que cambian aleatoriamente de una ejecución a otra son una consecuencia común de los errores de seguridad de subprocesos. Más coloquialmente, estos se conocen como ‘Heisenbugs’

Otro equipo incluso descubrió que la salida variaba según el tipo de computadora en la que se ejecutaba.

En el número 30, alguien informa que el modelo produce diferentes resultados según el tipo de computadora en la que se ejecuta (independientemente de la cantidad de CPU). Una vez más, la explicación es que, aunque este nuevo problema ‘se sumará a los problemas… Este no es un problema para ejecutar el modelo en su totalidad, ya que de todos modos es estocástico”.

La respuesta ilustra la pregunta candente: ¿por qué el equipo del Imperial College no se dio cuenta de que su software era tan defectuoso?

Debido a que su código está tan profundamente plagado de errores similares y lucharon tanto para solucionarlos que se acostumbraron a simplemente promediar los resultados de múltiples ejecuciones para ocultarlo … y finalmente este comportamiento se normalizó dentro del equipo.

La mayoría de nosotros estamos familiarizados con el adagio informático, “Garbage In / Garbage Out” (basura hacia dentro / basura hacia fuera) y el lector no capacitado podría pensar que eso es lo que se afirma en esta revisión del código. Pero no es así. Literalmente lo que se afirma es que lo que sale es basura, independientemente de la entrada.

En este caso, el resultado que estamos experimentando como resultado una cuarentena planetaria y de la economía global, y realmente no sabemos si esto era necesario o no, porque no tenemos datos reales (aparte de Suecia) y en cambio sí tenemos modelos severamente defectuosos.

Fuentes:

Mark E. Jeftovic / Axis of Easy — Computer model that locked down the world turns out to be sh*tcode.

Lockdown Sceptics — Code Review of Ferguson’s Model.

https://www.mentealternativa.com/modelo-computacional-que-puso-al-mundo-en-cuarentena-ha-resultado-ser-anticientifico-y-esta-lleno-de-errores/

Contenido Relacionado

Suscríbase a nuestro Boletín

Busqueda en Creadess

Nota de Creadess

"Ten presente que no busco tu aprobaciòn ni influir sobre tì, me sentirè satisfecho si a partir de ahora comienzas a investigar todo por tì mismo".....Bruce Lee

Los textos de los artìculos publicados son tomados de otras pàginas y tienen claramente indicada la fuente de origen. Nuestra intenciòn es darles una visiòn amplia y no sesgada de los hechos actuales y contribuir a mejorar su bienestar fìsico, mental y espiritual dando herramientas ùtiles y una visiòn positiva de nuestras realidades.

Los artìculos del blog son escritos por nuestros colaboradores. Somos defensores de la libre expresiòn por lo tanto no ejercemos filtros ni sesgos en los contenidos pero si aseguramos la seriedad profesional y veracidad de las personas que postean.

Sigue a Creadess

ÚLTIMAS ENTRADAS DE BLOG

Envía un mensaje o sugerencia

Nombre (*)
Entrada no válida
Correo (*)
Entrada no válida
Mensaje (*)
Entrada no válida
Entrada no válida

SIGUENOS EN FACEBOOK

SIGUENOS EN TWITTER

NUEVOS MIEMBROS