Algoritmos estão por toda parte; saiba por que você deve se preocupar

Como os algoritmos funcionam e as conclusões a que chegam podem ser misteriosas, principalmente porque o uso de técnicas de inteligência artificial os tornam cada vez mais complexos

0
Reprodução

Cada vez que você pega seu smartphone, está convocando algoritmos. Eles são usados ​​para tudo, desde desbloquear o telefone com o rosto, para decidir quais vídeos você vê no TikTok, para atualizar sua rota do Google Maps ou para evitar um acidente na autoestrada no caminho para o trabalho.

Um algoritmo é um conjunto de regras ou etapas seguidas, geralmente por um computador, para produzir um resultado. E os algoritmos não estão apenas em nossos telefones: eles são usados ​​em todos os tipos de processos, online e offline, desde ajudar a valorizar sua casa até ensinar seu robô a aspirar a ficar longe do cocô do seu cachorro.

Com o passar dos anos, eles têm recebido cada vez mais decisões que alteram suas vidas, como ajudar a decidir quem prender, quem deve ser libertado da prisão antes da data do tribunal e quem é aprovado para um empréstimo imobiliário.

Nas últimas semanas, renovou-se o julgamento dos algoritmos, incluindo como as empresas de tecnologia devem mudar a forma como os utilizam. Isso decorre tanto de preocupações levantadas em audiências com a denunciante do Facebook, Frances Haugen, quanto da legislação bipartidária apresentada na Câmara (um projeto de lei complementar havia sido anteriormente reintroduzido no Senado).

A legislação forçaria as grandes empresas de tecnologia a permitir que os usuários acessem uma versão de suas plataformas onde o que eles veem não é moldado por algoritmos. Esses desenvolvimentos destacam a consciência crescente sobre o papel central que os algoritmos desempenham em nossa sociedade.

“Nesse ponto, eles são responsáveis ​​por tomar decisões sobre praticamente todos os aspectos de nossas vidas”, disse Chris Gilliard, pesquisador visitante do Centro Shorenstein de Mídia, Política e Políticas Públicas da Harvard Kennedy School.

No entanto, as maneiras como os algoritmos funcionam e as conclusões a que chegam podem ser misteriosas, principalmente porque o uso de técnicas de inteligência artificial os tornam cada vez mais complexos. Seus resultados nem sempre são compreendidos ou precisos – e as consequências podem ser desastrosas. E o impacto de uma nova legislação potencial para limitar a influência dos algoritmos em nossas vidas permanece incerto.

Algoritmos, explicados

Basicamente, um algoritmo é uma série de instruções. Como Sasha Luccioni, um cientista pesquisador da equipe ética de IA da construtora de modelos de IA Hugging Face, apontou, ele pode ser codificado, com instruções fixas para um computador seguir, como colocar uma lista de nomes em ordem alfabética. Algoritmos simples têm sido usados ​​para a tomada de decisões por computador há décadas.

Hoje, os algoritmos ajudam a facilitar processos que de outra forma seriam complicados o tempo todo, quer saibamos disso ou não. Quando você direciona um site de roupas para filtrar pijamas para ver as opções mais populares ou menos caras, está usando um algoritmo essencialmente para dizer: “Ei, siga as etapas para me mostrar os pijamas mais baratos.”

Todos os tipos de coisas podem ser algoritmos, e não estão confinados a computadores: uma receita, por exemplo, é uma espécie de algoritmo, assim como a rotina matinal da semana que você vasculha sonolentamente antes de sair de casa.
“Executamos nossos próprios algoritmos pessoais todos os dias”, disse Jevan Hutson, advogado de privacidade e segurança de dados da Hintze Law, de Seattle, que estudou IA e vigilância.

Mas, embora possamos interrogar nossas próprias decisões, aquelas feitas por máquinas tornaram-se cada vez mais enigmáticas. Isso é por causa do surgimento de uma forma de IA conhecida como aprendizado profundo, que é modelada a partir da maneira como os neurônios funcionam no cérebro e ganhou destaque há cerca de uma década.

Um algoritmo de aprendizado profundo pode encarregar um computador de ver milhares de vídeos de gatos, por exemplo, para aprender a identificar a aparência de um gato. (Foi muito importante quando o Google descobriu como fazer isso de forma confiável em 2012).

O resultado desse processo de se empanturrar de dados e melhorar ao longo do tempo seria, em essência, um procedimento gerado por computador para saber como o computador identificará se há um gato em todas as novas fotos que ele vê. Isso geralmente é conhecido como um modelo (embora às vezes também seja conhecido como um algoritmo em si).

Esses modelos podem ser incrivelmente complexos. Facebook, Instagram e Twitter os usam para ajudar a personalizar os feeds dos usuários com base nos interesses e atividades anteriores de cada pessoa. Os modelos também podem ser baseados em montes de dados coletados ao longo de muitos anos que nenhum ser humano poderia classificar.

A Zillow (grande companhia de imóveis nos Estados Unidos), por exemplo, tem usado sua marca registrada “Zestimate” com aprendizado de máquina para estimar o valor das casas desde 2006, levando em consideração os registros de impostos e propriedades, detalhes enviados pelo proprietário, como a adição de um banheiro e fotos a casa.

Os riscos de confiar em algoritmos

Como mostra o caso de Zillow, no entanto, transferir a tomada de decisão para sistemas algorítmicos também pode dar errado de maneiras dolorosas, e nem sempre está claro o porquê.

A Zillow decidiu recentemente fechar seu negócio de lançamento de casas, o Zillow Offers, mostrando como é difícil usar IA para avaliar imóveis. Em fevereiro, a empresa disse que seu “Zestimate” representaria uma oferta inicial em dinheiro da empresa para comprar a propriedade por meio de seu negócio de venda de imóveis; em novembro, a empresa baixou o estoque de US$ 304 milhões, que atribuiu à compra recente de casas por preços mais altos do que ela pensa que pode vendê-las.

Em outro lugar online, a Meta, empresa anteriormente conhecida como Facebook, está sob julgamento por ajustar seus algoritmos de uma forma que ajudou a incentivar mais conteúdo negativo na maior rede social do mundo.

Os algoritmos também têm consequências para a mudança de vida, principalmente nas mãos da polícia. Sabemos, por exemplo, que vários homens negros, pelo menos, foram presos injustamente devido ao uso de sistemas de reconhecimento facial.

Geralmente, há pouco mais do que uma explicação básica de empresas de tecnologia sobre como seus sistemas algorítmicos funcionam e para que são usados. Além disso, especialistas em tecnologia e legislação tecnológica disseram ao CNN Business que mesmo aqueles que criam esses sistemas nem sempre sabem por que chegam às suas conclusões – o que é o motivo pelo qual são frequentemente chamados de “caixas pretas”.

“Cientistas da computação, cientistas de dados, neste estágio atual, eles parecem magos para muitas pessoas porque não entendemos o que eles fazem”, disse Gilliard. “E achamos que sempre fazem isso, mas nem sempre é o caso.”

Estourando bolhas de filtro

Os Estados Unidos não têm regras federais sobre como as empresas podem ou não usar algoritmos em geral, ou aqueles que utilizam IA em particular. Alguns estados e cidades aprovaram suas próprias regras, que tendem a abordar software de reconhecimento facial ou biometria de forma mais geral.

Mas o Congresso está atualmente considerando uma legislação apelidada de Filter Bubble Transparency Act, que, se aprovada, forçaria grandes empresas de Internet como Google, Meta, TikTok e outras a “dar aos usuários a opção de se envolver com uma plataforma sem serem manipulados por algoritmos conduzidos por dados específicos do usuário “.

Em um artigo recente da CNN Opinion, o senador republicano John Thune descreveu a legislação que ele co-patrocinou como “um projeto de lei que essencialmente criaria um interruptor de luz para os algoritmos secretos das grandes tecnologias – inteligência artificial (IA) projetada para moldar e manipular as experiências dos usuários – e dar aos consumidores a opção de ligá-lo ou desligá-lo. ”

O Facebook, por exemplo, já tem isso, embora os usuários sejam efetivamente desencorajados a girar a chamada chave permanentemente. Um botão “Mais recente” bastante bem escondido mostrará as postagens em ordem cronológica reversa, mas o feed de notícias do Facebook voltará ao estado original, fortemente moderado, assim que você sair do site ou fechar o aplicativo. A Meta parou de oferecer essa opção no Instagram, que também possui, em 2016.

Hutson observou que, embora o Filter Bubble Transparency Act se concentre claramente em grandes plataformas sociais, ele inevitavelmente afetará outros, como o Spotify e o Netflix, que dependem profundamente da curadoria baseada em algoritmos. Se for aprovado, disse ele, “mudará fundamentalmente” o modelo de negócios de empresas que são construídas inteiramente em torno de curadoria algorítmica – um recurso que ele suspeita que muitos usuários apreciem em certos contextos.

“Isso vai impactar as organizações muito além daquelas que estão sob os holofotes”, disse ele.

Especialistas em IA argumentam que a necessidade de mais transparência é crucial para empresas que criam e usam algoritmos. Luccioni acredita que as leis de transparência algorítmica são necessárias antes que usos e aplicações específicas de IA possam ser regulamentados.

“Vejo as coisas mudando, definitivamente, mas há um lapso realmente frustrante entre o que a IA é capaz e para o que é legislado”, disse Luccioni.

Fonte: CNN Brasil

Deixe um comentário