banner
Centro de notícias
Vamos criar estratégias juntos para criar uma solução benéfica.

A nova ferramenta de IA generativa do Google pode aprimorar imagens de produtos

Aug 25, 2023

Por Jess Weatherbed, um redator de notícias focado em indústrias criativas, computação e cultura da internet. Jess começou sua carreira na TechRadar, cobrindo notícias e análises de hardware.

O Google está lançando o Product Studio, uma nova ferramenta que permite que os comerciantes do Google Shopping editem e personalizem rapidamente suas imagens de produtos gratuitamente usando IA generativa. Anunciado no evento Google Marketing Live na terça-feira, o Product Studio está sendo lançado para vendedores nos EUA nos "próximos meses" e será hospedado pelo Merchant Center Next, a plataforma redesenhada da empresa para upload e publicidade de produtos por meio do Google Shopping.

O Product Studio foi projetado para ajudar os vendedores a diversificar as imagens de produtos e estilo de vida usadas em listagens de comércio eletrônico - algo que pode ajudá-los a se destacar em relação aos produtos concorrentes, mas pode ser demorado para criar ou exigir fotografias caras. De acordo com os próprios dados do Google, listagens de produtos com mais de uma imagem normalmente apresentam um aumento de 76% nas impressões e 32% nos cliques em comparação com listagens com uma única imagem.

Os prompts de texto podem ser usados ​​no Product Studio para fazer ajustes visuais rapidamente nas imagens do produto, como gerar uma seleção de novos planos de fundo para campanhas sazonais. O Product Studio também permite que os vendedores removam instantaneamente o plano de fundo existente de uma imagem se precisarem de um plano de fundo em branco e aumentem a qualidade de imagens pequenas ou de baixa resolução.

No início deste mês, a CNBC informou que o Google planejava usar seu novo modelo de linguagem PaLM 2 AI para ajudar as empresas a criar anúncios. O Google não divulgou em qual modelo de AI o Product Studio foi desenvolvido, portanto não está claro se esse novo anúncio faz parte desses esforços. Em uma declaração ao The Verge, a porta-voz do Google, Molly Shaheen, diz que foi construído com "um dos modelos de texto para imagem do Google".

O Google diz que o Product Studio foi criado para empresas de todos os tamanhos, embora seja mais útil para vendedores independentes e pequenas empresas que não têm orçamento para gastar em sessões de fotos elaboradas. Isso não quer dizer que o Product Studio não atraia empresas maiores que podem gastar mais em materiais de marketing, o que poderia adicionar mais combustível aos temores de que a IA generativa seja usada para substituir profissionais criativos.

O Product Studio não é um conceito único - vários aplicativos de desktop e móveis já lançaram ferramentas que também usam IA generativa para personalizar fotos de produtos, como o PhotoRoom's Instant Backgrounds. A Meta também está testando ferramentas de IA generativas semelhantes para anunciantes em seu recém-anunciado AI Sandbox, e muitos aplicativos de design gráfico como Canva e Adobe Express lançaram recursos baseados em IA para remover fundos e gerar objetos. O que o Product Studio oferece é conveniência - se você já estiver usando o Merchant Center do Google, poderá incrementar suas imagens sem pular entre as plataformas.

O Google diz que os comerciantes que usam o aplicativo Google e YouTube no Shopify também terão acesso aos recursos do Product Studio. A gigante das buscas está atualmente lançando sua plataforma simplificada do Merchant Center Next (que eventualmente substituirá o Merchant Center) para novos usuários e começará a atualizar empresas menores "nos próximos meses". O Google notificará os comerciantes quando a nova experiência estiver disponível e planeja concluir o lançamento global em 2024.

Atualização em 23 de maio, 14:33 ET:Atualizado para incluir uma resposta de um porta-voz do Google.

/ Inscreva-se no Verge Deals para obter ofertas em produtos que testamos enviados para sua caixa de entrada diariamente.

Atualização em 23 de maio, 14:33 ET: