Stable Diffusion
http://dbpedia.org/resource/Stable_Diffusion an entity of type: Thing
Stable Diffusion est un modèle d'apprentissage automatique permettant de générer des images numériques photoréalistes à partir de descriptions en langage naturel. Le modèle peut également être utilisé pour d'autres tâches, comme la génération d'une image améliorée à partir d'une esquisse et d'une description textuelle. Il peut fonctionner sur la plupart des matériels grand public équipés d'une carte graphique même de moyenne gamme et a été salué par PC World comme « la prochaine application phare pour votre ordinateur ».
rdf:langString
Stable Diffusion是2022年發布的深度學習。它主要用於根據文本的描述產生詳細圖像,儘管它也可以應用於其他任務,如內補繪製、外補繪製,以及在指導下產生圖生圖的翻譯。 它是一種,由慕尼黑大學的CompVis研究團體開發的各種生成性人工神經網絡。它是由初創公司StabilityAI,CompVis與Runway合作開發的,並得到EleutherAI和的支持。 截至2022年10月,StabilityAI籌集了1.01億美元的資金。 Stable Diffusion的代碼和模型權重已公開發布,可以在大多數配備有適度GPU的電腦硬件上運行。而以前的專有文生圖模型(如DALL-E和)只能通過雲端運算服務訪問。
rdf:langString
Stable Diffusion es un modelo de aprendizaje automático desarrollado por Stability AI para generar imágenes digitales de alta calidad a partir de descripciones en lenguaje natural. El modelo se puede usar para diferentes tareas, como la generación de traducciones de imagen a imagen guiadas por mensajes de texto y la mejora de imágenes.
rdf:langString
Stable Diffusion is a deep learning, text-to-image model released in 2022. It is primarily used to generate detailed images conditioned on text descriptions, though it can also be applied to other tasks such as inpainting, outpainting, and generating image-to-image translations guided by a text prompt.
rdf:langString
rdf:langString
Stable Diffusion
rdf:langString
Stable Diffusion
rdf:langString
Stable Diffusion
rdf:langString
Stable Diffusion
rdf:langString
Stable Diffusion
rdf:langString
Stable Diffusion
rdf:langString
Stable Diffusion
rdf:langString
Stable Diffusion
rdf:langString
Stable Diffusion
rdf:langString
Stable Diffusion
xsd:integer
71642695
xsd:integer
1124224181
rdf:langString
right
rdf:langString
An image generated by Stable Diffusion based on the text prompt "a photograph of an astronaut riding a horse"
rdf:langString
CompVis group LMU Munich; Runway; Stability AI
rdf:langString
vertical
rdf:langString
Demonstration of the effect of negative prompts on image generation.
*Top: No negative prompt
*Centre: "green trees"
*Bottom: "round stones, round rocks"
rdf:langString
Algorithmically-generated landscape artwork of forest with Shinto shrine using negative prompt for round stones.png
rdf:langString
Algorithmically-generated landscape artwork of forest with Shinto shrine using negative prompt for green trees.png
rdf:langString
Algorithmically-generated landscape artwork of forest with Shinto shrine.png
xsd:date
2022-11-24
xsd:integer
2
rdf:langString
Creative ML OpenRAIL-M
rdf:langString
Any that support CUDA kernels
xsd:date
2022-08-22
rdf:langString
File:A photograph of an astronaut riding a horse 2022-08-28.png
xsd:integer
250
xsd:integer
200
rdf:langString
Stable Diffusion es un modelo de aprendizaje automático desarrollado por Stability AI para generar imágenes digitales de alta calidad a partir de descripciones en lenguaje natural. El modelo se puede usar para diferentes tareas, como la generación de traducciones de imagen a imagen guiadas por mensajes de texto y la mejora de imágenes. A diferencia de modelos de la competencia como DALL-E, Stable Diffusion es de código abierto y no limita artificialmente las imágenes que produce. Los críticos han expresado su preocupación por la ética de la IA, afirmando que el modelo se puede utilizar para crear deepfakes. Puede ejecutarse en el hardware del usuario equipado con una tarjeta gráfica (GPU), es completamente gratis, se puede acceder a él online y fue elogiado por PC World como "la próxima aplicación revolucionaria para su PC". Desde su lanzamiento inicial, más de 200,000 personas han descargado el código.
rdf:langString
Stable Diffusion est un modèle d'apprentissage automatique permettant de générer des images numériques photoréalistes à partir de descriptions en langage naturel. Le modèle peut également être utilisé pour d'autres tâches, comme la génération d'une image améliorée à partir d'une esquisse et d'une description textuelle. Il peut fonctionner sur la plupart des matériels grand public équipés d'une carte graphique même de moyenne gamme et a été salué par PC World comme « la prochaine application phare pour votre ordinateur ».
rdf:langString
Stable Diffusion is a deep learning, text-to-image model released in 2022. It is primarily used to generate detailed images conditioned on text descriptions, though it can also be applied to other tasks such as inpainting, outpainting, and generating image-to-image translations guided by a text prompt. Stable Diffusion is a latent diffusion model, a variety of deep generative neural network developed by the CompVis group at LMU Munich. The model has been released by a collaboration of , CompVis LMU, and Runway with support from EleutherAI and LAION. In October 2022, Stability AI raised US$101 million in a round led by Lightspeed Venture Partners and Coatue Management. Stable Diffusion's code and model weights have been released publicly, and it can run on most consumer hardware equipped with a modest GPU with at least 8 GB VRAM. This marked a departure from previous proprietary text-to-image models such as DALL-E and Midjourney which were accessible only via cloud services.
rdf:langString
Stable Diffusion是2022年發布的深度學習。它主要用於根據文本的描述產生詳細圖像,儘管它也可以應用於其他任務,如內補繪製、外補繪製,以及在指導下產生圖生圖的翻譯。 它是一種,由慕尼黑大學的CompVis研究團體開發的各種生成性人工神經網絡。它是由初創公司StabilityAI,CompVis與Runway合作開發的,並得到EleutherAI和的支持。 截至2022年10月,StabilityAI籌集了1.01億美元的資金。 Stable Diffusion的代碼和模型權重已公開發布,可以在大多數配備有適度GPU的電腦硬件上運行。而以前的專有文生圖模型(如DALL-E和)只能通過雲端運算服務訪問。
xsd:nonNegativeInteger
30388
xsd:date
2022-11-24
xsd:string
2.0 (model)
xsd:date
2022-08-22