Je repost mon commentaire de reddit sur cette vidéo:
La vidéo est bien faite, le sujet pas vraiment.
L'alignement n'est pas un problème grave tant qu'on a pas de super intelligence.
Et la super intelligence, les chercheurs vont le voir venir.
Les progrès des LLM sont pour le moment très incremental.
Très didactique comme vidéo, je ne l'y attendais pas. Maintenant je comprend le concept d'alignement, je connaissais le terme mais sans savoir ce que ca voulait dire.