Biden dice la pandemia de covid-19 terminó en los Estados Unidos
ESTADOS UNIDOS.- El presidente Joe Biden dijo el domingo que la pandemia de COVID en Estados Unidos ha terminado.
Sus comentarios fueron reflejo del estatus actual de gran parte de la sociedad de Estados Unidos, donde las restricciones por el COVID se han eliminado en gran parte y los vuelos han repuntado a sus niveles prepandemia.
«La pandemia ha terminado», dijo en una entrevista televisada con la cadena CBS para el programa «60 Minutes».
«Todavía tenemos un problema con el COVID. Todavía estamos trabajando mucho en ello…, pero la pandemia ha terminado. Si se fijan, nadie lleva máscaras. Todo el mundo parece estar en buena forma. Y por eso creo que está cambiando», apuntó.
Las declaraciones de Biden, no obstante, se produjeron apenas unas semanas después de que su administración pidiera al Congreso miles de millones de dólares en financiación para mantener los programas de pruebas y vacunación durante una potencial ola en el inminente otoño boreal.
cfl-am

Trump elige a Susie Wiles como jefa del gabinete en Casa Blanca
Abinader entrega muelles en Río San Juan y Cabrera para la pesca
Primer Ministro Haití seguirá en Puerto Rico, su futuro es incierto
Albert Pujols dice está definido 95% roster RD Clásico Mundial
Gobierno inicia 2026 con alta liquidez
Confederación da a conocer el calendario de la Serie del Caribe
La Biblia y Marx: justicia social entre la redención y la revolución
Gigantes del Cibao despiden a José Leger como su dirigente
Principales señalados corrupción no son políticos militantes
Junior Lake vaticina los Leones revalidarán título de campeones
Manuel Nova publica ”Sable”, obra muerte de Orland Martínez
Mujeres sobresalientes en la guerra civil de EE.UU.
Esclavización silenciosa

















No!!! Leo esto y no lo creo.
Estamos acostumbrados a las mentiras.