Guides

Prompting Vidéo IA en 2026 : Sora 2, Runway Gen-4, Pika et Luma comparés

A
Adil S.AI Content Strategist
18 mars 2026
9 min de lecture

Manuel pratique pour écrire des prompts sur les modèles vidéo IA en 2026. Conseils spécifiques à Sora 2, Runway Gen-4, Pika 2.0 et Luma Dream Machine v3, affinés sur plus de 1 500 générations.

Prompting Vidéo IA en 2026 : Sora 2, Runway Gen-4, Pika et Luma comparés
Partager:

Note de l'équipe Reprompte : Ce guide reflète nos tests pratiques sur Sora 2, Runway Gen-4, Pika 2.0 et Luma Dream Machine v3 tout au long du premier trimestre 2026. Les techniques ci-dessous ont été affinées sur plus de 1 500 générations réparties entre les quatre plateformes.

Pourquoi le prompting vidéo est une discipline à part

L'arrivée de Sora 2, Runway Gen-4 et Pika 2.0 fin 2025 a rendu la vidéo IA réellement utile pour la première fois, et 2026 est l'année où les créateurs ont arrêté de traiter les prompts vidéo comme des prompts d'image avec des adjectifs en plus. Ce n'en sont pas. Un prompt vidéo doit décrire non seulement une image, mais le mouvement, le rythme, le comportement de la caméra et la continuité — et les mêmes mots ne signifient pas la même chose pour les différents modèles.

Ce guide est le manuel que nous utilisons en interne chez Reprompte pour le prompting vidéo. Chaque section a été testée sur Sora 2, Runway Gen-4, Pika 2.0 et Luma Dream Machine v3, et nous indiquons où les plateformes divergent. Si vous venez de Midjourney ou DALL-E, attendez-vous à désapprendre quelques habitudes.

Anatomie d'un bon prompt vidéo

Les meilleurs résultats sur les quatre plateformes viennent de prompts construits en cinq couches : sujet, action, caméra, environnement et atmosphère. Si vous en sautez une, le modèle comble le vide avec ses valeurs par défaut d'entraînement — qui sont en général génériques.

Sujet : Ce sur quoi la caméra est cadrée. Soyez précis sur l'identité, les vêtements, la posture, l'expression. « Une jeune femme en imperméable jaune » est bien plus fort que « une personne ».

Action : Ce que fait le sujet, y compris le tempo du verbe. « Tourne lentement la tête pour faire face à la caméra » donne au modèle une information de durée ; « tourne la tête » non.

Caméra : Le type de plan, le cadrage, et tout mouvement éventuel. « Travelling avant lent du plan moyen au gros plan sur cinq secondes » est exactement le genre de phrase que les modèles vidéo ont été entraînés à suivre.

Environnement : Où l'action se déroule, et ce qu'il y a dans le cadre autour du sujet. De petits détails environnementaux — pavé mouillé, feuilles qui tombent, reflets de néons — donnent au modèle de la matière pour des micro-mouvements naturels.

Atmosphère : L'ambiance, la lumière, la météo, le son de la scène. Même sur les plateformes sans audio, les mots d'atmosphère orientent l'étalonnage et l'énergie du mouvement.

Sora 2 : cinématique et patient

Sora 2 est la plus « cinématique » des quatre plateformes. Elle récompense les prompts écrits dans le langage du cinéma : tailles de plans, informations d'objectif, schémas de lumière, mouvements de caméra. « Objectif portrait 85 mm, faible profondeur de champ, golden hour, push-in lent caméra à l'épaule » est plus utile que n'importe quelle quantité d'adjectifs.

La plus grande faiblesse de Sora 2 début 2026 est son excès de mouvement. Sans rythme explicite, elle a tendance à générer des plans rapides et chargés. Contrez cela en précisant la durée de chaque mouvement dans le prompt : « la caméra s'incline lentement vers le haut sur la totalité des 8 secondes du plan ». C'est notre astuce Sora la plus fiable.

Sora gère aussi les indications négatives par remplacement descriptif, pas par exclusion. Au lieu de « pas de personnes en arrière-plan », dites « la rue derrière elle est vide ». Dire à Sora ce qui doit être dans le cadre fonctionne ; lui dire ce qui ne devrait pas y être n'est pas fiable.

Runway Gen-4 : meilleur pour la continuité

Runway Gen-4 est la plateforme vers laquelle nous nous tournons dès que la continuité compte : un personnage qui apparaît dans plusieurs plans, un objet qui doit rester cohérent, un décor qui doit avoir le même aspect entre les scènes. Les fonctions image-vers-vidéo et image de référence de Gen-4 sont nettement en avance sur la concurrence pour ça en 2026.

L'astuce avec Gen-4 est de s'appuyer sur ces entrées de référence et de garder le prompt court. Un prompt de 30 mots avec une bonne image de référence bat généralement un prompt de 100 mots sans référence. Réservez le prompt à l'action et à la caméra, et laissez l'image de référence porter l'identité visuelle.

Le motion brush de Runway, où vous peignez les régions qui doivent bouger, est l'une des fonctionnalités les plus sous-utilisées de la stack vidéo IA. Pour des plans avec un sujet principal statique et un fond en mouvement — pensez à une personne sur une colline venteuse, cheveux et vêtements qui bougent — masquer les bonnes zones et n'écrire des prompts de mouvement que pour elles produit des résultats nettement plus crédibles qu'un simple prompt textuel libre.

Pika 2.0 : stylisé et rapide

Pika 2.0 occupe une autre niche. C'est la plus rapide des quatre et la plus solide sur le contenu stylisé, illustré ou animé. Pour le photoréalisme nous allons généralement ailleurs, mais pour des clips stylisés courts — un logo qui prend vie, une scène illustrée qui se met en mouvement, un effet 2.5D découpé — Pika gagne souvent sur la vitesse comme sur la cohérence visuelle.

Pika répond bien à des ancres de style explicites en tout début de prompt : « anime, dessin à la main, 24fps », « 3D low-poly, palette pastel douce », « stop-motion, textures de feutrine ». Placer la déclaration de style dans les premiers mots dit au modèle comment interpréter tout ce qui suit.

Pika a tendance à halluciner du texte dans les scènes plus que les autres. Si vous ne voulez pas de panneaux, d'affiches ou d'écriture visible, dites-le explicitement : « pas de texte lisible sur les panneaux ou les surfaces » fonctionne réellement sur Pika, contrairement à Sora.

Luma Dream Machine v3 : la magie de la caméra

Luma Dream Machine v3 est devenue notre référence pour les plans pilotés par la caméra. Elle interprète remarquablement bien le vocabulaire de prise de vues — « plan à la grue qui s'élève du sol pour révéler la skyline », « plan en Steadicam suivant le coureur de dos », « plan fixe verrouillé, le sujet sort du cadre côté jardin » font à peu près ce qu'on attend.

La fonction keyframe de Luma, où vous fournissez une image de début et une image de fin et laissez le modèle générer la transition, est la plus aboutie de la catégorie. Pour les plans dont vous avez une vision claire de début et de fin, ce workflow bat le prompt purement textuel sur tous les critères. Le prompt n'a alors qu'à décrire le mouvement qui relie les deux images.

Bonnes pratiques universelles

Précisez la durée explicitement. Chaque modèle a une durée de clip par défaut, mais un mouvement décrit sans rythme finit comprimé ou précipité. « Un clip de 6 secondes » ou « la caméra se déplace lentement sur l'ensemble du plan » donne un ancrage temporel au modèle.

Limitez le nombre de mouvements. Deux mouvements simultanés est en général la limite avant que la qualité ne baisse. Un mouvement de caméra plus une action de personnage passe ; un mouvement de caméra, une action de personnage, un changement de météo et un événement d'arrière-plan en même temps, c'est trop.

Un verbe par mouvement. « Marche lentement en regardant nerveusement autour d'elle » fait deux mouvements et le modèle gère. « Avance, regarde, gesticule, se retourne » fait quatre verbes qui se chevauchent et que le modèle ne rendra qu'à moitié.

Fixez la lumière. La dérive d'éclairage entre images est l'un des artefacts les plus courants. Nommer la source — « lampe tungstène chaude côté gauche du cadre », « lumière du jour diffuse par temps couvert » — verrouille le modèle.

La vérité sur les prompts négatifs

Sora 2 et Pika 2.0 supportent les prompts négatifs via des options de syntaxe. Runway et Luma non, début 2026. Globalement, les prompts négatifs sont nettement moins fiables en vidéo qu'en image fixe, parce que la négation doit tenir image par image et l'attention du modèle dérive avec le temps.

La parade fiable est le remplacement positif. Au lieu de « pas de bras en plus », décrivez ce que les bras doivent faire : « ses mains sont clairement visibles, tenant la tasse de café à deux mains ». Au lieu de « pas de morphing », donnez une description stable qui ne laisse aucune marge au modèle pour inventer du changement : « la même Coccinelle Volkswagen rouge du début à la fin, plaque d'immatriculation inchangée ».

Un workflow d'itération qui fonctionne

Les générations vidéo coûtent cher. Un workflow qui minimise les essais perdus a plus de valeur que n'importe quelle astuce de prompt isolée. Le schéma qui nous a fait économiser le plus de crédits en 2026 :

Commencez par une génération de test courte — trois ou quatre secondes en basse résolution si votre plateforme le permet — pour vérifier la composition, l'identité du sujet et le mouvement de caméra. Itérez le prompt à ce niveau bon marché jusqu'à ce que ces trois éléments soient bons. Ce n'est qu'ensuite qu'on monte à la durée et à la résolution complètes. La plupart des générations vidéo ratées auraient été détectées en phase de test ; la version finale ne fait souvent que confirmer en payant ce que le test montrait déjà.

Sauvegardez chaque prompt qui a produit un résultat que vous aimez, même si vous n'utilisez pas le clip. Les fragments de prompt se cumulent. La description de lumière qui a fonctionné pour une scène fonctionnera pour une autre six mois plus tard, et le mouvement de caméra que vous avez réussi pour un plan produit vous fera gagner 40 minutes quand il faudra l'adapter à une autre marque.

L'audio rattrape son retard

Sora 2 génère un son d'ambiance dès le départ, et la cohérence entre image et son est désormais assez bonne pour que l'audio fasse partie du prompt, pas un ajout après-coup. Décrivez le paysage sonore comme vous décrivez le visuel : « pluie sur les auvents métalliques, circulation au loin, pas de musique ». Pour les scènes avec dialogue, les modèles actuels gagnent encore à recevoir l'instruction de garder le son diégétique — « sons d'ambiance uniquement, pas de voix off, pas de musique » — pour éviter une musique de fond générique.

Vers où va le prompting vidéo

Le plus gros changement de 2026 est que la vidéo IA est devenue éditable. Chaque plateforme a livré des fonctionnalités qui permettent de régénérer un seul élément d'un plan — l'arrière-plan, le sujet, la lumière — sans refaire l'ensemble. Les prompts servent de moins en moins à générer des prises parfaites du premier coup, et de plus en plus à itérer par parties. La compétence qui comptera le plus dans le reste de l'année n'est pas l'écriture de prompts impeccables de 200 mots ; c'est de savoir quels 20 mots changer entre deux essais.

Si vous ne devez retenir qu'une chose : arrêtez de traiter les prompts vidéo comme des prompts d'image. Ce sont des scripts plus des storyboards plus des feuilles de plan, le tout compressé dans un paragraphe. Écrivez-les comme vous briefiez une équipe de tournage, et vos résultats feront un bond immédiat.

Besoin d'un point de départ pour votre prochain prompt vidéo ?

Notre Générateur de Prompts IA gratuit transforme une idée en une ligne en un prompt cinématographique structuré avec sujet, action, caméra et atmosphère déjà en place.

Générer un prompt prêt pour la vidéo
A

Adil S.

AI Content Strategist

Adil is a content strategist and co-founder of Reprompte. He specializes in making complex AI concepts accessible to beginners and professionals alike, with a focus on practical applications of prompt engineering across creative and business domains.

Articles connexes

Prêt à créer des prompts exceptionnels ?

Mettez ces conseils en pratique avec notre générateur de prompts IA gratuit. Transformez vos idées en prompts optimisés instantanément.