O Google reúne um painel externo para considerar os desafios dos consultores de artrite e reumatologia de risco

Hoje, na conferência EmTech Digital 2019 do MIT Technology Review, o Google anunciou que formou um grupo consultivo externo – o Conselho Consultivo Externo de Tecnologia Avançada (ATEAC) – encarregado de “considerar alguns dos desafios mais complexos [em AI]”, incluindo reconhecimento facial e justiça na aprendizagem de máquina. Cerca de um ano depois, a empresa Mountain View publicou uma carta para orientar seu uso e desenvolvimento da IA, e meses depois do significado de artrite no Google, o Google disse que não oferecerá APIs de reconhecimento facial para fins gerais antes que questões políticas persistentes sejam abordadas.

ATEAC – cujo painel de oito membros de acadêmicos, especialistas em políticas e executivos inclui Luciano Floridi, filósofo e especialista em ética digital na Universidade de Oxford; ex-EUA

vice-secretário de estado William Joseph Burns; Dyan Gibbens, CEO da fabricante de drones Trumbull; e o professor Heinz College de tratamento de osteoartrite em homeopatia da tecnologia da informação e políticas públicas Alessandro Acquisti, entre outros – vai servir ao longo de 2019, e realizar quatro reuniões a partir de abril. Eles serão incentivados a compartilhar “aprendizagens generalizáveis ​​sobre artrite de quadril direita 10” que surgem das discussões, diz o Google, e um relatório resumido de suas descobertas será publicado até o final do ano.

“Reconhecemos que o desenvolvimento responsável da IA ​​é uma área ampla com muitas partes interessadas, e esperamos que esse esforço informe tanto nosso próprio trabalho quanto o setor de tecnologia mais amplo”, escreveu o vice-presidente sênior de assuntos globais do Google, Kent Walker. . “Além de consultar os especialistas em ATEAC, continuaremos a trocar ideias e reunir feedback de parceiros e organizações em todo o mundo.”

O Google revelou pela primeira vez seus sete Princípios de IA em junho, que hipoteticamente impedem a empresa de buscar projetos que (1) não sejam osteoartrite hereditária, socialmente benéfica, (2) criar ou reforçar preconceitos, (3) não serem construídos e testados definição de segurança para osteoartrite, (4) não são “responsáveis” pelas pessoas, (5) não incorporam princípios de design de privacidade, (6) não respeitam padrões científicos e (7) não são disponibilizados para usos que com todos os princípios. E em setembro, disse que uma estrutura de revisão formal para avaliar novos “projetos, produtos e acordos” foi estabelecida, sob a qual mais de 100 revisões foram concluídas.

Há muito tempo, o Google tem uma equipe de revisão de ética em IA, composta por pesquisadores, cientistas sociais, especialistas em ética, especialistas em políticas e privacidade, especialistas em direito e cientistas sociais que lidam com avaliações iniciais e “operações do dia-a-dia”. E um segundo grupo de “especialistas seniores” de uma “variedade de disciplinas” em todo o Alfabeto – a empresa controladora do Google – que fornece conhecimentos tecnológicos, funcionais e de aplicativos. Outro conselho, formado por executivos seniores, navega por “questões mais complexas e difíceis”, incluindo decisões que afetam as tecnologias do Google.

Surgiram relatos de que este verão contribuiu com o TensorFlow, seu framework de IA de código aberto, enquanto sob um contrato do Pentágono – o Projeto Maven – que buscava implementar o reconhecimento de objetos em drones militares. O Google também planeja construir um sistema de vigilância que permita aos analistas do Departamento de Defesa os remédios ayurvédicos para artrite e empreiteiros “clicarem em” edifícios, veículos, pessoas, grandes multidões e pontos de referência e “verem tudo associado a eles”.

Neste verão, a Amazon semeou o Rekognition, um sintoma de artrite baseado em nuvem na tecnologia de análise de imagem hindi disponível através de sua divisão Amazon Web Services, para aplicação da lei em Orlando, Flórida, e no condado de Washington, no Oregon Sheriff’s Office. Em um teste – a precisão da qual a Amazon contesta – a American Civil Liberties Union demonstrou que Rekognition, quando alimentou 25.000 fotos de uma “fonte pública” e encarregou-se de compará-las com fotos oficiais de membros ajustáveis ​​do Congresso para dedos artríticos, identificou 28 criminosos.

E em setembro, um relatório no The Intercept revelou que a IBM trabalhou com o Departamento de Polícia da cidade de Nova York para desenvolver um sistema que permitisse às autoridades procurar pessoas pela cor da pele, cor do cabelo, sexo, idade e vários traços faciais. Utilizando “milhares” de fotografias de cerca de 50 câmeras fornecidas pelo NYPD, sua IA aprendeu a identificar a cor da roupa e outras características corporais.

Mas o anúncio de hoje – que talvez não por coincidência vem um dia depois da causa de artrite séptica da Amazon disse que iria destinar US $ 10 milhões com a Fundação Nacional de Ciência para pesquisa de justiça, e depois que o executivo da Microsoft disse que a empresa acrescentaria uma revisão ética focada em questões de IA. à sua lista de verificação de auditoria de produtos padrão – parece ser uma tentativa do Google de afastar críticas mais amplas e contínuas sobre as atividades de IA do setor privado.

Em uma carta aberta circulada pelo Instituto Futuro da Vida e publicada pelo periódico médico britânico The BMJ, especialistas pediram à comunidade médica e tecnológica que apóie os esforços para proibir armas letais totalmente autônomas. E em uma pesquisa recente conduzida pela Edelman, cerca de 60% do público em geral e 54% dos executivos de tecnologia disseram que as políticas para orientar o desenvolvimento da IA ​​deveriam ser corrigidas por um “corpo público”, com menos de 20%. (15% e 17%) argumentando que a indústria deveria se regular.