Une recherche conjointe d’OpenAI, Google DeepMind, Anthropic et Meta, datée du 15 juillet 2025 (confirmée dans des articles de VentureBeat et Quartz publiés le 16 juillet 2025), met en garde contre la perte potentielle de la capacité des modèles d’IA à « penser à haute voix » en langage humain. Selon le papier, cela pourrait compliquer la surveillance des processus de décision internes, rendant plus difficile la détection des comportements nuisibles. Ce sujet est controversé, car il touche à la sécurité et à l’éthique, avec des implications pour la régulation future. Des figures comme Geoffrey Hinton et Ilya Sutskever ont soutenu cette recherche, soulignant son importance.