Dall-E, l’outil de génération automatisée d’images, est désormais ouvert à tous

Les utilisateurs n’ont droit qu’à un nombre limité d’images créées par l’intelligence artificielle sur la base d’une requête textuelle. Au-delà, il faut payer.

OpenAI brise les digues. L’entreprise américaine, spécialiste de l’intelligence artificielle, permet désormais à tout internaute d’utiliser son impressionnant outil Dall-E. Ce réseau de neurones profonds est capable de générer en quelques secondes des images haute résolution à partir d’une requête textuelle du type « deux personnes discutant à la terrasse d’un café parisien en automne, à la manière de Gauguin ».

L’accès au Dall-E était jusqu’à présent réservé aux seuls professionnels, qui devaient s’inscrire sur liste d’attente. Avant l’ouverture au public, 1,5 million de personnes généraient 2 millions d’images chaque jour sur le site OpenAI.

Lire aussi Dall-E, l’intelligence artificielle qui révolutionne la création visuelle

Le grand public avait déjà pu goûter cet été à l’intelligence artificielle créatrice d’images grâce à des sites gratuits comme Craiyon, aux résultats souvent hilarants. Mais le réseau de neurones de Dall-E est plus puissant et capable de créer des visuels d’aspect professionnel, dont certains ont déjà fait des couvertures de magazines.

Lisez aussi Craiyon, l’outil de génération automatique d’images dont raffolent les réseaux sociaux

Des filtres pour éviter les dérives

OpenAI a restreint l’utilisation de Dall-E. Lors de l’inscription, les nouveaux utilisateurs reçoivent un crédit de 50 requêtes gratuites. Après cela, ils auront droit à 15 requêtes textuelles gratuites par mois. En plus de cela, vous devez payer. Le prix, non dégressif, est de 15 dollars pour 115 crédits.

L’entreprise américaine avait d’abord adopté une approche prudente en restreignant l’accès à Dall-E par crainte que son outil puisse être utilisé par des individus malveillants à des fins de désinformation, de propagande ou de cyberintimidation. Cette ouverture progressive « nous a permis de renforcer nos systèmes de sécurité. Nos filtres sont devenus plus robustes et rejettent les requêtes qui visent à créer des images violentes, à caractère sexuel ou qui violent notre politique de contenu », explique OpenAI. Il est par exemple impossible de créer des images sur la guerre en Ukraine ou des personnalités publiques.

OpenAI tente également de corriger les biais de son intelligence artificielle, qui reproduit les clichés auxquels elle a été exposée en « digérant » d’immenses bases de données visuelles. Par exemple, si l’utilisateur ne précise pas le sexe ou l’origine ethnique des personnages qu’il souhaite voir sur sa photo, OpenAI ajoutera les termes « féminin », « noir » ou « asiatique » à la demande pour diversifier les résultats.

VOIR AUSSI – Équipé d’une intelligence artificielle, un casque aide les pompiers à localiser les victimes

Laisser un commentaire