Inteligência artificial aprende a desenhar cães com… inteligência artificial
Uma experiência colocou dois sistemas de inteligência artificial DeepMind da Google a colaborarem entre si num curioso processo de deep learning.
Um grupo de investigadores utilizou para um projeto de deep learning o sistema de inteligência artificial da Google, o DeepMind. Aliás, dois sistemas de IA que tiveram de comunicar entre si, utilizando uma “monstruosidade” de poder computacional. O objetivo era gerar imagens através de uma técnica chamada GAN (Generative Adversarial Network) que consiste em colocar uma segunda IA num cenário de cooperação para aprendizagem, invés de ser um humano a “alimentar” a máquina com a informação.
Na experiência, uma IA (equivalente ao humano) teria de desenhar imagens de um cão, por exemplo, mesmo sem saber como era a forma do animal. As imagens eram depois enviadas para a segunda IA, previamente carregada com fotografias de cães. Esta teria então de dar feedback à primeira IA sobre as imagens produzidas, que, por conseguinte, utilizava a informação para melhorar os seus trabalhos. O processo seria repetido até as imagens serem melhoradas ao ponto da segunda IA não conseguir distinguir a diferença entre as imagens desenhadas pela sua “companheira” e as fotografias que tinha sido alimentada.
O resultado não foi brilhante, e como pode ver pelas imagens, existem erros anatómicos hilariantes, desde cães com dois corpos fundidos ou com orelhas gigantes. Mas todas as imagens são fotorealísticas e algumas delas são realmente muito convincentes quando olhadas de relance, conferindo um grande sucesso à experiência e ao potencial que o futuro reserva à IA. De notar que embora seja fácil um humano descrever um cão, para as máquinas é um processo complicado.
Segundo a publicação IFLScience, o sistema GAN é alimentando por cerca de 64 imagens por sujeito, mas nesta investigação, cada um recebeu 2.000 fotografias, sendo batizado de BigGAN. Os investigadores chegaram à conclusão de que o sistema se tornou mais preciso com o incremento de imagens, mas para as processar, foi necessário aumentar igualmente a capacidade computacional, neste caso 512 TPU (Tensor Processing Units) para gerar “fotografias” de 512 pixéis. Cada experiência efetuada demorou entre 24 e 48 horas.
A experiência requereu também uma enorme quantidade de eletricidade, “o equivalente para alimentar Cleveland durante uma tarde”, refere o porta-voz dos investigadores. Segundo as suas contas, seria necessária uma área de 8.230 metros quadrados de painéis solares para obter a energia necessária.