Blog – instituto de pesquisa de inteligência de máquina remédios homeopáticos para artrite

2017 foi um grande ano de transição para o MIRI, à medida que assumimos novos projetos de pesquisa que dependem muito do trabalho prático de programação e experimentação. Continuamos esses projetos em 2018, e eles estão descritos mais em nossa atualização de 2018. Isso significou um grande foco no estabelecimento de bases para um crescimento muito mais rápido do que no passado, incluindo a criação de infraestrutura e a mudança de recrutamento para alcançar mais pessoas com experiência em engenharia.

Além da biblioteca de lentes, o edward mantém uma parte significativa de todas as bibliotecas em torno das bibliotecas principais do haskell, abrangendo desde a diferenciação automática (usada intensamente em aprendizado profundo, visão computacional e risco financeiro) até a teoria de categorias (fortemente inclinada à organização de software). , Ligações SAT, esquemas RCU, ferramentas para escrever compiladores e muito mais.

No MIRI, edward está dividindo seu tempo entre nos ajudar a fazer crescer nossa equipe de pesquisa e mergulhar em uma linha de pesquisa que ele tem desenvolvido independentemente em segundo plano por algum tempo: construir um novo idioma e infraestrutura para tornar mais fácil para as pessoas escreverem programas de computador com propriedades desejáveis ​​conhecidas. Apesar de sermos grandes fãs de seu trabalho, a pesquisa de Edward é independente das orientações que descrevemos em nossa atualização de 2018 e não a consideramos parte de nosso foco central de pesquisa.

Nosso modelo atual dos desafios envolvidos diz que o principal ponto de discussão para futuros engenheiros provavelmente será que os blocos de construção da inteligência artificial não são suficientemente transparentes. Acreditamos que alguém, em algum lugar, precisa desenvolver algumas novas fundações e uma profunda teoria / insights, acima e além do que provavelmente resultará do aprimoramento ou da ampliação das técnicas padrão atuais.

No passado, quando os pesquisadores conversavam sobre as motivações para trabalhar em problemas como esses, eles geralmente se concentravam na motivação do risco da IA. Pesquisadores de IA querem construir máquinas que possam resolver problemas na forma geral de um humano, e o dualismo não é uma estrutura realista para pensar sobre tais sistemas. Em particular, é uma aproximação que é especialmente propensa a quebrar à medida que os sistemas de IA ficam mais inteligentes. Quando as pessoas descobrem como construir sistemas gerais de IA, queremos que esses pesquisadores estejam em uma posição melhor para entender seus sistemas, analisar suas propriedades internas e estar confiantes em seu comportamento futuro.

Uma desvantagem de discutir esses problemas como estratégias instrumentais é que isso pode levar a alguns equívocos sobre por que achamos que esse tipo de trabalho é tão importante. Com a lente de “estratégias instrumentais”, é tentador traçar uma linha direta de um determinado problema de pesquisa até uma determinada preocupação de segurança. Mas não é que eu esteja imaginando sistemas incorporados do mundo real sendo “muito bayesianos” e isso de alguma forma causando problemas, se não descobrirmos o que há de errado com os modelos atuais de agência racional. Certamente não é que eu esteja imaginando futuros sistemas de inteligência artificial sendo escritos em lógica de segunda ordem! Na maioria dos casos, não estou tentando de maneira alguma traçar linhas diretas entre problemas de pesquisa e modos específicos de falha de inteligência artificial.

Se os desenvolvedores de inteligência artificial no futuro ainda estiverem trabalhando com esses conceitos básicos confusos e incompletos enquanto tentam realmente construir poderosos otimizadores do mundo real, isso parece ser uma má posição para se estar. E parece que a comunidade de pesquisa provavelmente não irá descobrir a maioria. disso, por padrão, no curso de apenas tentar desenvolver sistemas mais capazes. A evolução certamente descobriu como construir cérebros humanos sem “entender” nada disso, através da busca por força bruta.

Quando aplicamos a lente da curiosidade ao mundo, nos orientamos para as fontes de confusão que nos impedem de ver claramente; os pontos em branco em nosso mapa, as falhas em nossas lentes. Ele encoraja a verificação de hipóteses e o atendimento a pontos cegos, o que é útil como um contraponto psicológico à nossa lente de “estratégia instrumental” – sendo esta última mais vulnerável à vontade de apoiar-se em quaisquer premissas instáveis ​​que temos à mão. mais solidez e fechamento em nossos primeiros pensamentos.