Google cancela o Conselho para a ética na Inteligência Artificial
O projeto, criado há pouco mais de uma semana, foi extinto pela empresa americana devido a algumas nomeações polémicas para a sua direção.
A Google tinha criado há pouco mais de uma semana o Conselho Externo de Tecnologias Avançadas, com o objetivo de vigiar as questões éticas relacionadas com a evolução da Inteligência Artificial. A instituição pretendia, assim, moldar o desenvolvimento e utilização responsável de produtos derivados da IA. No entanto, segundo noticia o site Vox, o projeto foi oficialmente cancelado pela empresa americana.
De acordo com o site, o Conselho foi problemático desde o início devido à nomeação de figuras controversas para a direção. A mais polémica foi Kay Coles James, a presidente da Heritage Foundation, uma instituição americana de ideologia conservadora. Além de se opor aos direitos LGBT, Kay Coles James também manifestou publicamente sentimentos anti-imigração, bem como a negação da existência de alterações climáticas.
Logo após a nomeação de Kay Coles James, um grupo de empregados da Google pediu a sua demissão, alegando que as principais falhas da IA afetam, maioritariamente, transexuais, negros e imigrantes. Por esse motivo, consideraram que Kay Coles James não seria a pessoa mais indicada para fazer parte desse Conselho. Outra nomeação polémica foi a de Dyan Gibbens, fundadora e CEO da Trumbull Unmanned (uma empresa de drones com ligações ao exército), uma vez que veio levantar a questão da possível utilização de IA para fins militares.
As nomeações de Kay Coles James e Dyan Gibbens não foram bem recebidas por outros membros do Conselho, tendo mesmo levado o professor universitário Alessandro Acquisti a pedir a demissão. A Google entendeu assim que a melhor solução passaria por dissolver o Conselho na sua totalidade.
Um representante da empresa americana declarou à Vox que se “tornou claro que com o ambiente atual o Conselho Externo de Tecnologias Avançadas não tem condições para funcionar”. O mesmo representante assegura, no entanto, que “a Google vai continuar a trabalhar de forma responsável relativamente às questões importantes que a IA levanta” e, que por esse motivo, “irá continuar a procurar outras formas de obter opiniões externas sobre estes assuntos.”