22 de agosto, 2025

Últimas:

Biden diz que pandemia ‘terminou’ nos EUA

Anúncios

O presidente americano, Joe Biden, disse neste domingo (18), que a pandemia de Covid-19 terminou nos Estados Unidos. “A pandemia terminou”, disse em entrevista à TV.

“Ainda temos um problema com a covid. Ainda estamos trabalhando muito nisso, mas a pandemia acabou. Se prestarem atenção, ninguém usa máscaras. Todo mundo parece estar em boa forma. E por isso, acredito que está mudando”, afirmou.

Anúncios

No entanto, o presidente deu estas declarações apenas algumas semanas depois de sua administração ter pedido ao Congresso bilhões de dólares em financiamento para manter seus programas de testagem e vacinação com vistas a uma possível nova onda no outono.

Anúncios

Fonte: Yahoo!

Talvez te interesse

Últimas

Estratégia centrada no cliente ganha espaço no mercado global e se torna diferencial competitivo para empresas de logística, explica especialista...

Categorias