A Google quer facilitar (ainda mais) o acesso à inteligência artificial generativa — e, para isso, lançou o Google AI Studio, uma plataforma gratuita e baseada na web que promete tornar a criação de experiências com IA algo acessível. Voltada principalmente para desenvolvedores e criadores, a ferramenta permite prototipar ideias rapidamente usando os modelos de linguagem mais avançados do Google, como o próprio Gemini.
Na prática, o AI Studio funciona como um ambiente de testes, onde é possível interagir com a IA, ajustar parâmetros, salvar projetos e até gerar códigos de integração. A proposta é clara: dar agilidade e autonomia para quem quer explorar o potencial da IA sem precisar lidar com configurações complexas. Testamos a plataforma e iremos contar o que ela oferece, como funciona e quais foram nossas impressões logo de cara.
Plataforma ainda em inglês
Apesar de o Google AI Studio estar disponível apenas em inglês até o momento, a plataforma consegue entender e responder em português, veja abaixo:
Isso significa que, mesmo com a interface em outro idioma, é possível interagir com os modelos de IA usando comandos, perguntas e instruções na nossa língua — o que facilita bastante a experiência, especialmente para quem ainda não domina o inglês.
O que o AI Studio consegue fazer?
Embora o foco principal do Google AI Studio seja o desenvolvimento, a plataforma também pode ser explorada por usuários comuns que queiram testar os recursos da inteligência artificial: os tais “curiosos”.
Sendo assim, em tese, o Google AI Studio consegue editar imagens através de uma conversa. A plataforma permite adicionar ou remover objetos (inclusive marca-d’água), modificar cenários, alterar a iluminação da cena, aplicar zoom, simular diferentes ângulos e fazer outras transformações com comandos simples, como foi noticiado pelo Olhar Digital. Apesar disso, o Startups testou a funcionalidade e não obteve sucesso:
Ao insistir que a plataforma enviasse a imagem editada, a inteligência artificial disse que não possuía a capacidade de editar imagens ou gerar novas imagens combinando elementos. “Minhas respostas anteriores foram um erro, onde tentei confirmar a realização de uma tarefa que não posso executar. Sinto muito por isso e pela frustração que causou”, disse a IA:
O Startups buscou, em uma conversa com o próprio Gemini, também da Google, entender se o AI Studio era capaz de editar e gerar imagens, a resposta foi positiva, mesmo com a falha do AI Studio. Veja:
Vale lembrar que o Google AI Studio ainda está em fase de testes e, sendo assim, suscetível a erros.
Outro recurso que chama atenção é a capacidade multimodal do Gemini 2.0 Flash, modelo que alimenta o AI Studio. Com ele, é possível misturar texto e imagem no mesmo projeto. O modelo também consegue recontar histórias, mudar o estilo visual e ajustar os elementos gráficos com base no feedback do usuário.
Além disso, o Gemini 2.0 Flash demonstra um bom nível de compreensão do mundo. Confira abaixo uma demonstração:
Diferente da interface mais simplificada do Gemini tradicional, o AI Studio permite, por exemplo, fazer o upload de arquivos de áudio e vídeo para gerar transcrições, resumos e análises mais detalhadas — funcionalidades que, até então, eram limitadas ou indisponíveis em versões anteriores como o Gemini 1.5 Flash.
O Startups testou a funcionalidade usando como exemplo o corte de um episódio do Podcast MVP. Desta vez, a ferramenta conseguiu cumprir a função:
Outra possibilidade é de comparar diferentes modelos de IA dentro da mesma plataforma. O usuário pode testar um mesmo prompt com o Gemini 2.0 Flash e o Gemini 1.5 Pro, e observar lado a lado como cada modelo responde — o que é bastante útil para entender as capacidades e limitações de cada um.
Para desenvolvedores — especialmente os iniciantes ou independentes — o Google AI Studio oferece uma experiência muito mais acessível do que o Vertex AI (também da Google). A principal vantagem está no uso imediato: não é necessário gerar uma chave de API ou ter uma infraestrutura web ativa para começar a testar e refinar modelos. Tudo pode ser feito diretamente na interface da plataforma, com os projetos sendo sincronizados no Google Cloud do próprio usuário.
A ferramenta permite criar protótipos, ajustar respostas, testar diferentes abordagens de prompt e, quando necessário, exportar os modelos refinados para integração futura. Mas claro, como ainda se trata de um ambiente voltado à experimentação, ele não suporta implantações em larga escala diretamente pela interface.