CLIP-based Neural Neighbor Style Transfer for 3D Assets
une méthode pour transférer le style d'un ensemble d'images à un objet 3D. L'apparence de texture d'un élément est optimisée avec un rendu différentiable dans une pipeline basée sur des pertes utilisant des réseaux de neurones profonds pré-entraînés. Plus précisément, nous utilisons une perte de correspondance de caractéristiques de voisinage le plus proche avec CLIP-ResNet50 pour extraire le style des images. Nous montrons qu'une perte de style basée sur CLIP fournit une apparence différente par rapport à une perte basée sur VGG en se concentrant davantage sur la texture que sur les formes géométriques. De plus, nous étendons la perte pour prendre en charge plusieurs images et permettre un contrôle basé sur la perte sur la palette de couleurs combiné avec l'extraction automatique de la palette de couleurs à partir des images de style.
Modèle de tarification: