Quelle IA crée la page Web la plus cool ? GPT 5.2 vs Gemini 3.0 Pro vs Opus 4.5 vs bolt.new vs v0 vs Lovable
Introduction
Pour ma première incursion dans le développement d'applications mobiles, je développe "Sumineko", une application très simple qui permet de regarder des vidéos de chats en boucle et de manière aléatoire dans un coin de l'écran de son smartphone tout en faisant autre chose.
Sumineko (en cours de développement)
Pour enregistrer cette application sur les stores officiels, il est nécessaire de disposer d'une page de politique de confidentialité sur le Web. Puisqu'il faut le faire, j'ai décidé de créer une Landing Page (LP) pour cette application.
Ainsi, dans cet article, je vais demander aux principaux LLM et services de codage par IA de créer la base de cette LP, et je comparerai le résultat de manière arbitraire et subjective.
Présentation des concurrents
| Concurrent | Caractéristiques |
| v0(v0 Agent) | L'outil agent de Vercel. Support complet du prompt à l'implémentation de l'interface utilisateur et au débogage. |
| bolt.new (Claude Sonnet 4.5) | Agent Claude basé sur navigateur. Construction efficace d'applications Next.js sous forme de dialogue. |
| Lovable | Constructeur compatible avec plusieurs modèles d'IA. Génération et édition intuitives d'applications React+Supabase. |
| Gemini 3.0 Pro | Le dernier modèle haute performance de Google. Génère rapidement des pages Web sophistiquées grâce à une entrée multimodale. |
| Opus 4.5 | Le modèle le plus puissant d'Anthropic. Utilise un long contexte pour gérer soigneusement la conception d'applications Web complexes. |
| GPT 5.2 | Le dernier modèle d'OpenAI. Par rapport à GPT-5.1, le "taux de réponses correctes" est multiplié par 1,8, la "précision du code" est grandement améliorée et les hallucinations réduites de 30 %. |
WARNING
Note sur le traitement équivalent par commodité
Bien que les LLM purs (Gemini 3.0 Pro, Opus 4.5, GPT 5.2) et les systèmes d'aide au développement intégrant des LLM (bolt.new, v0, Lovable) aient des architectures système différentes, cet article les traite sur un pied d'égalité par commodité. L'objectif est de comparer subjectivement la qualité des pages Web générées avec le même prompt. Veuillez noter que cette expérience n'a aucune rigueur scientifique.
Les Prompts
J'ai préparé les 2 modèles ci-dessous pour vérifier de manière informelle leur capacité d'improvisation et leur fidélité aux exigences.
Modèle "Carte blanche" : mentionnant uniquement les exigences minimales.
Modèle "Instructions détaillées" : décrivant des exigences relativement précises.
Modèle "Carte blanche"
Ce modèle présente principalement un bref aperçu de "Sumineko" et les sections nécessaires, en laissant le design et le texte à l'appréciation de l'IA.
Modèle "Instructions détaillées"
Ce modèle "pointilleux" spécifie non seulement l'aperçu de "Sumineko" et les sections nécessaires, mais entre également dans les détails de la structure de chaque section, le libellé et les aspects du design tels que la palette de couleurs.
Résumé des résultats
NOTE
Bien que le responsive design soit pris en charge, cet article ne traite que de l'affichage sur ordinateur.
Modèle "Carte blanche"
v0
bolt.new
Lovable
Gemini 3.0 Pro
Opus 4.5
GPT 5.2
Modèle "Instructions détaillées"
v0
bolt.new
Lovable
Gemini 3.0 Pro
Opus 4.5
GPT 5.2
Regardons les résultats en détail
v0 (v0 Agent)
Prompt Carte blanche
Pour le modèle "Carte blanche", le design UI est très classique avec une palette de couleurs extrêmement sobre, donnant une impression de "sans risque" absolu, pour le meilleur et pour le pire.
Comme les images, vidéos et icônes sont temporaires, cela accentue peut-être l'impression de simplicité.
Si l'on y insérait de vrais contenus, cette simplicité pourrait au contraire constituer un bon équilibre qui mettrait en valeur les captures d'écran et les vidéos.
Prompt Instructions détaillées
Quant au modèle "Instructions détaillées", bien qu'il respecte fidèlement le contenu du prompt, le design global reste là aussi très modeste.
Il n'y a pas de mise en gras pour souligner le texte, ce qui donne une impression de platitude, pour le meilleur et pour le pire, et l'impression générale ne diffère pas beaucoup de celle du modèle "Carte blanche".
bolt.new (Claude Sonnet 4.5)
Prompt Carte blanche
Le modèle "Carte blanche" présente un design doux et vivant basé sur la couleur orange. L'œil est naturellement guidé vers le texte et les images orange, ce qui donne une impression sophistiquée.
Texte d'appel visible sans défilement
Un point de détail intéressant : dans la section HERO, c'est-à-dire la partie visible sans défilement, il y a un élément d'appel discret mais intrigant : "Experience the magic (Faites l'expérience de la magie)", ce qui est une bonne astuce pour réduire le taux de rebond.
Cependant, même s'il s'agit d'éléments temporaires, le design du smartphone dans la section HERO et l'aspect plat des éléments de la section collection m'ont donné une impression un peu vieillotte, bon marché et amateur.
Prompt Instructions détaillées
Pour le modèle "Instructions détaillées", il est très fidèle au prompt, ce qui est bien, mais cette fidélité semble avoir tué les qualités de bolt.
Ce n'est pas mauvais dans l'ensemble, mais c'est trop monotone comparé au modèle "Carte blanche".
Ce n'est pas la faute de bolt, mais cela reflète probablement directement le faible niveau du prompt que j'ai préparé.
Lovable
Prompt Carte blanche
Dans le modèle "Carte blanche", la première chose qui saute aux yeux est l'illustration du chat dont le visage est déformé.
Chat au visage déformé 1
Chat au visage déformé 2
Comme je n'ai pas fourni de matériel, ils ont eu la gentillesse d'en préparer, mais le design surréaliste, digne d'un dessin d'enfant de maternelle, prête à rire.
Cependant, ce ne sont que des éléments temporaires. Si l'on ignore ces chats au visage déformé pour regarder le reste du design, ce n'est pas mal : il y a des chats un peu partout en arrière-plan et les parties importantes sont bien mises en valeur avec des couleurs d'accentuation marron et orange.
Prompt Instructions détaillées
Le modèle "Instructions détaillées" est très fidèle aux instructions, mais on y voit aussi de l'ingéniosité : les textes importants sont en gras avec une police douce adaptée à l'application, et le bouton de bascule PiP est mis en valeur en orange (ce qui n'était pas spécifié dans le prompt).
Police douce adaptée à l'application
Bouton qui ressort bien par contraste avec le fond
Gemini 3.0 Pro
Prompt Carte blanche
Le modèle "Carte blanche" manque de fantaisie, pour le meilleur et pour le pire. Avec un design et des couleurs globalement stricts, il donne l'impression d'une application ou d'un outil professionnel plutôt que d'une application de détente.
C'est peut-être un préjugé, mais c'est une direction très "Google".
Bien que la direction du design ne corresponde clairement pas à l'application, si l'on met cela de côté, la qualité globale est très élevée.
Cela donne l'impression d'avoir été fait "selon le manuel de conception Web", sans bizarrerie, ce qui inspire confiance.
Représentation du PiP
Représentation du navigateur
C'est un détail, mais la reproduction des illustrations temporaires comme le PiP ou le navigateur est également de haute qualité.
C'est un point appréciable car cela permet de se faire une bonne idée du résultat final.
Prompt Instructions détaillées
Le modèle "Instructions détaillées" est fidèle aux instructions comme les autres IA, et bien qu'il soit tiré vers le bas par le faible niveau des instructions de design du prompt, il intègre une touche d'improvisation avec un design dynamique où l'image du smartphone et l'image de l'écran de collection sont légèrement inclinées. C'est un très bon accent.
Smartphone incliné
Image de collection inclinée
De plus, le chat qui marche nonchalamment dans le pied de page est également élégant.
Chat marchant sur le pied de page
Opus 4.5
Prompt Carte blanche
Le modèle "Carte blanche" présente un design globalement lumineux, coloré et mignon. On voit bien que le thème "application de chat apaisante" a été correctement reflété dans le design.
L'en-tête a également un design moderne avec de la transparence, ce qui est très élégant.
Design coloré et cohérent
Les icônes éparpillées en arrière-plan, les dégradés dans les titres et la palette de couleurs variée témoignent d'un aspect ludique, tout en conservant une cohérence de design sans impression de désordre. C'est un excellent design.
Prompt Instructions détaillées
En revanche, le modèle "Instructions détaillées", comparé au modèle "Carte blanche", a complètement tué les qualités d'Opus 4.5, aboutissant à un design soudainement ennuyeux.
Comme pour bolt, il semble que le faible niveau du prompt se soit manifesté directement dans le résultat.
GPT 5.2
Prompt Carte blanche
Le modèle "Carte blanche" a une direction de design et de couleurs similaire à Opus, utilisant des dégradés colorés comme accents ici et là, créant une atmosphère lumineuse.
Quand un amateur comme moi essaie d'utiliser ce genre de dégradés variés, cela fait souvent "cheap", mais ici, j'ai l'impression que c'est bien agencé et propre.
Alors que les autres modèles utilisaient des émojis de chats ou des photos pour les éléments temporaires, GPT 5.2 ne semble rien utiliser de tel.
De plus, la différence avec les autres modèles est flagrante dans la section HERO.
Section HERO
Toute la section HERO est représentée comme un élément de carte, et l'image du smartphone est représentée par un carré et non un rectangle vertical.
Cependant, les éléments en bas de l'écran du smartphone dépassent, et la ligne contenant les liens de téléchargement est placée au même niveau que le texte promotionnel de l'application, ce qui crée un encombrement. Même en tant qu'amateur en design, je ressens un léger malaise.
Prompt Instructions détaillées
Le modèle "Instructions détaillées" est devenu un design ennuyeux, tout comme pour Opus et bolt.
Comme je l'ai mentionné à plusieurs reprises, c'est probablement le résultat de sa fidélité au prompt, pour le meilleur et pour le pire.
Cependant, alors que Lovable ajoutait du orange comme couleur d'accent et adoucissait la police, et que Gemini inclinait les éléments, de petites touches d'ingéniosité brillaient ailleurs ; avec GPT 5.2, je n'ai rien vu de tel.
Conclusion et évaluation générale (subjective et arbitraire)
Classement de mes IA préférées
Sur la base des résultats obtenus, voici mon classement des IA que j'ai préférées, avec mes raisons.
Rappelons que je suis un grand débutant en design et que je n'ai aucune connaissance spécialisée, il s'agit donc d'une évaluation basée sur l'intuition et le ressenti d'un amateur.
| # | Concurrent | Raison |
| 1er | Gemini 3.0 Pro | Que les instructions soient vagues ou détaillées, je ressens dans les deux cas un raffinement et une stabilité du design. J'ai eu la forte impression que si je confie la tâche à Gemini, il produira globalement un résultat supérieur à la moyenne, d'où sa première place. |
| 2e | Opus 4.5 | Avec le prompt "Carte blanche", il a bien interprété l'objectif de l'application et l'a reflété dans un design de haute qualité, ce qui est formidable. Cependant, j'ai senti qu'il fallait faire attention car si la qualité du prompt est faible, la qualité du résultat chute plus drastiquement qu'avec Gemini. |
| 3e | GPT 5.2 | La qualité globale est élevée et je sens un grand potentiel, mais le design de la section HERO dans le modèle "Carte blanche" m'a laissé une légère inquiétude. |
| 4e | bolt.new (Sonnet 4.5) | Outre l'aspect "cheap" de certains éléments dans le modèle "Carte blanche", comme pour Opus 4.5, sa capacité d'improvisation est élevée, mais j'ai senti qu'il pouvait tuer ses propres qualités selon le prompt, ce qui nécessite de la prudence, d'où la 4e place. |
| 4e | Lovable | Les chats au visage déformé me préoccupent quand même. Ce ne sont que des éléments temporaires donc je ne devrais peut-être pas m'en soucier, mais si les images temporaires sont trop grossières, il est difficile d'imaginer le résultat final, donc je suis obligé de retirer des points personnellement. Cependant, le résultat avec le prompt "Instructions détaillées" était d'un niveau de finition comparable aux autres IA. |
| 5e | v0(v0 Agent) | Globalement sans risque, sobre et ennuyeux. La capacité d'improvisation est faible, et j'ai senti qu'il était fortement influencé par le faible niveau d'ingénierie de prompt de l'utilisateur. Il semble donc nécessaire de l'utiliser avec beaucoup de précaution pour ceux qui sont exigeants sur le design. C'est un peu dommage car c'était un outil que j'aimais beaucoup utiliser par le passé. |
Le fait que Gemini 3.0 Pro puisse tout créer est un sujet brûlant sur les réseaux sociaux récemment, et je tire mon chapeau à ses excellentes capacités en matière de design également.
Jusqu'à présent, j'utilisais principalement Claude Code (Max Plan) et Cursor, mais ce résultat m'a fait penser très fort qu'il pourrait être judicieux de passer à Antigravity.
Ceux qui n'ont pas le sens du design ne devraient pas trop en faire dans les prompts
Comme tout le monde l'a probablement ressenti en voyant les résultats, le modèle "Instructions détaillées", bien que montrant quelques astuces sur certains modèles, a essentiellement produit des résultats sobres et ennuyeux.
Je pense que le fait d'avoir restreint la palette de couleurs aux tons bruns pour correspondre au thème de l'application a particulièrement contribué à rendre le design monotone.
Comme les IA sont fondamentalement fidèles aux instructions, c'est peut-être naturel, mais les personnes sans sens du design ne devraient pas essayer d'aller trop loin en entrant dans les détails du design dans leurs prompts.
En laissant une certaine liberté à l'IA sur les domaines que l'on ne maîtrise pas bien, elle devrait généralement prendre des décisions basées sur les meilleures pratiques dans ce domaine.
Bien sûr, cela donne inévitablement un côté "déjà-vu", mais j'ai eu l'impression que c'était bien mieux que le "bricolage au hasard" d'un amateur.
Le véritable enfer commence maintenant
Les résultats obtenus ici ne sont qu'un point de départ. Sur cette base, il est nécessaire d'ajuster la direction avec l'IA à maintes reprises pour se rapprocher de l'UI/UX idéale.
Dans mon cas, bien que n'ayant pas de sens artistique, je suis bizarrement pointilleux sur l'UI, donc cette étape prend particulièrement du temps.
Dans cette optique, plus que le premier résultat, la rapidité de réflexion de l'IA (la brièveté du cycle essai-erreur), le faible taux de bugs et la capacité à saisir précisément l'intention des instructions pour les implémenter sont bien plus importants.
De ce point de vue, le classement serait probablement complètement différent de celui présenté ci-dessus.
Il est donc certain qu'il est prématuré de juger de la supériorité uniquement sur ces résultats, et je vous invite à essayer par vous-même à titre de référence.
