Microsoft ajuda carros autônomos a conhecer suas limitações

Ícone de tempo de leitura 2 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

A ignorância é uma benção, e muitas vezes são os mais ignorantes que tomam as decisões mais seguras, não sendo sobrecarregados pelo conhecimento de que podem estar errados.

Em muitas situações, tudo isso é bom e bom, mas no nível atual de desenvolvimento de carros autônomos, ter um Tesla batendo com confiança em um caminhão de bombeiros ou van branca (ambos aconteceram) pode ser bastante perigoso.

A questão é que os carros autônomos são inteligentes o suficiente para dirigir carros, mas não para saber quando estão entrando em uma situação fora de seu nível de confiança e capacidade.

A Microsoft Research trabalhou com o MIT para ajudar os carros a saber exatamente quando as situações são ambíguas.

Como observa o MIT, uma única situação pode receber muitos sinais diferentes, porque o sistema percebe muitas situações como idênticas. Por exemplo, um carro autônomo pode ter cruzado ao lado de um carro grande muitas vezes sem diminuir a velocidade e parar. Mas, em apenas um caso, uma ambulância, que parece exatamente a mesma para o sistema, passa rapidamente. O carro autônomo não encosta e recebe um sinal de feedback de que o sistema realizou uma ação inaceitável. Como a circunstância incomum é rara, os carros podem aprender a ignorá-los, quando ainda são importantes, apesar de serem raros.

O novo sistema, para o qual a Microsoft contribuiu, reconhecerá esses sistemas raros com treinamento conflitante e pode aprender em uma situação em que pode ter, por exemplo, um desempenho aceitável em 90% das vezes, a situação ainda é ambígua o suficiente para merecer uma ver."

“Quando o sistema é implantado no mundo real, ele pode usar esse modelo aprendido para agir com mais cautela e inteligência. Se o modelo aprendido prevê que um estado seja um ponto cego com alta probabilidade, o sistema pode consultar um humano para a ação aceitável, permitindo uma execução mais segura”, disse Ramya Ramakrishnan, estudante de pós-graduação no Laboratório de Ciência da Computação e Inteligência Artificial.

Leia muito mais detalhes no MIT News aqui.

Mais sobre os tópicos: carros autônomos, pesquisa da microsoft

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *