AMD et stabilité AI ont déclaré lundi que les deux sociétés avaient porté un générateur d’art Amuse AI de diffusion stable de stabilité à stabilité, permettant une amélioration de la génération d’images, et même du texte, fonctionnant uniquement sur le NPU.
Avec la plupart des progrès à couper le souffle dans l’art de l’IA provenant du cloud (comme Google Veo 3), un nouveau modèle d’art d’art IA fonctionnant localement sur les processeurs PC d’AMD ne semblerait pas être digne d’intérêt. Mais c’est un pas en avant pour AMD, qui a pris du retard sur certaines des avancées de l’art de l’IA d’Intel.
Le nouveau modèle fera partie d’Amuse 3.1, disponible en téléchargement à partir de Stabilité AI. Vous voudrez télécharger le modèle de support de diffusion stable via l’application Amuse, que nous avons essayé en avril lorsque Amuse a commencé à ajouter du texte à la vidéo. Le nouveau modèle utilise ce que l’on appelle BF16, qui permet une gamme de réponses plus large mais moins de précision. Il semble aussi bien, mieux que certains des résultats que j’ai pu générer en avril.
Un milieu de diffusion stable est déjà disponible via Amuse, mais il a auparavant nécessité un GPU, limitant l’appel de masse. Vous pouvez maintenant choisir parmi l’un ou l’autre. Alors que de plus en plus d’ordinateurs portables commencent à ajouter des NPU, cela ouvrira la génération d’images locale à un public plus large.
AMD a fourni un aperçu de la presse la semaine dernière, et je l’ai essayé en utilisant un MSI Prestige A16 AI + avec un processeur AMD Ryzen AI 9 365 à l’intérieur, et une NPU avec 50 hauts. Chaque image (avec 20 étapes) a pris environ 90 secondes à générer. C’est encore loin derrière le cloud, mais la génération d’images sur un PC local est illimitée.
Amuse fait toujours des erreurs, et vous pourrez dire si vous regardez attentivement qu’il n’est pas créé par les mains humaines. Mais cela s’améliore régulièrement. Où serons-nous dans un an ou deux?












