A reportagem do jornal britânico The Guardian, no fim de semana passado, detalhou que a Apple contrata empreiteiros encarregados de ouvir algum áudio da Siri, levando os críticos a considerar a história como prova de que o compromisso da Apple com a privacidade nada mais é do que uma conversa de marketing..
Um trecho do relatório do Guardian:
Os contratados da Apple ouvem regularmente informações médicas confidenciais, negócios com drogas e gravações de casais que fazem sexo, como parte de seu trabalho de fornecer controle de qualidade ou 'classificação', o assistente de voz Siri da empresa, aprendeu o Guardian..
Embora a Apple não a revele explicitamente em sua documentação de privacidade voltada para o consumidor, uma pequena proporção das gravações da Siri é repassada aos contratados que trabalham para a empresa em todo o mundo.
Você está positivamente cem por cento certo disso? Porque acabei de revisar as telas de privacidade da Apple espalhadas por seus sistemas operacionais e, com certeza, explicitam claramente que algumas gravações da Siri podem ser usadas para melhorar o serviço da Siri. Além disso, consegui encontrar o seguinte trecho analisando rapidamente o contrato de licença de software da Apple para iOS:
Ao usar o Siri ou o Ditado, você concorda e concorda com a transmissão, coleta, manutenção, processamento e uso dessas informações da Apple e de suas subsidiárias e agentes, incluindo sua entrada de voz e Dados do Usuário, para fornecer e melhorar a funcionalidade do Siri, Ditado e Ditado. em outros produtos e serviços da Apple.
Toda essa passagem está em negrito e acho que é bastante inequívoca sobre as intenções da Apple.
A "revelação" de que a empresa está vendendo os dados de voz coletados pelo assistente pessoal da Siri a terceiros - contratados encarregados de treinar o algoritmo Siri - como parte de sua tentativa de melhorar o serviço Siri não é novidade se você estiver seguindo tecnologia.
Até o Guardian reconhece o mesmo:
Eles classificam as respostas em vários fatores, incluindo se a ativação do assistente de voz foi deliberada ou acidental, se a consulta era algo com o qual a Siri poderia ajudar e se a resposta da Siri era apropriada.
Esta não é a primeira vez que as pessoas “descobrem” que alguns trechos de áudio da Siri estão sendo transmitidos a terceiros. Em 2015, um funcionário anônimo de uma empresa chamada Walk N'Talk Technologies escreveu no Reddit que os dados de voz sendo analisados pela empresa eram provenientes de assistentes pessoais como Siri e Cortana.
A Apple divulgou a seguinte declaração ao Guardian e outros:
Uma pequena parte dos pedidos de Siri é analisada para melhorar o Siri e o ditado. As solicitações do usuário não estão associadas ao Apple ID do usuário. As respostas Siri são analisadas em instalações seguras e todos os revisores têm a obrigação de cumprir os estritos requisitos de confidencialidade da Apple.
O cerne da história do Guardian vem de um "denunciante", basicamente um empregador da Apple que relatou ouvir algumas coisas particulares durante ativações acidentais.
Aqui está o que o denunciante disse ao jornal:
Houve incontáveis casos de gravações com discussões privadas entre médicos e pacientes, negócios, negócios aparentemente criminosos, encontros sexuais e assim por diante. Essas gravações são acompanhadas por dados do usuário mostrando a localização, detalhes de contato e dados do aplicativo.
As gravações de áudio das consultas do usuário aproveitam os metadados como o local para entender melhor o contexto. A parte preocupante é o fato de os contratados serem capazes de ouvir conversas particulares em primeiro lugar. Como o próprio relatório reconhece, isso é possível porque um usuário pode invocar a Siri acidentalmente sem perceber, solicitando a gravação de áudio do que é dito após a frase de ativação "Hey Siri" ser carregada no servidor, e certamente não porque A Siri está gravando secretamente conversas sem o consentimento do usuário.
Meus sentimentos sobre isso certamente não são os mesmos que o resto da Internet.
Não se espera que nenhum assistente digital melhore ao longo do tempo com base apenas no poder da inteligência artificial e do aprendizado de máquina. Isso ocorre porque o modelo de aprendizado de máquina usado por um assistente precisa ser treinado primeiro por editores humanos - não há apenas duas maneiras de fazê-lo..
O Google Fotos teria sido incapaz de reconhecer rostos com uma precisão estranha se a empresa não tivesse treinado o algoritmo usando fotos de pessoas reais. O Face ID da Apple não seria possível se o aprendizado de máquina não tivesse sido treinado em mais de um milhão de fotografias de diversos rostos humanos. Mesmo algo tão "comum" quanto o reconhecimento de fala pode ser drasticamente aprimorado utilizando um algoritmo de aprendizado de máquina usando dados treinados.
A dura verdade é que as máquinas (ainda) não podem treinar os modelos de aprendizado de máquina de outras máquinas com resultados satisfatórios - esse é o trabalho em que os humanos se destacam.
Todos na indústria que levam a sério a inteligência artificial empregam editores humanos para treinar seus algoritmos de aprendizado de máquina com o objetivo de melhorar o serviço. Esses funcionários são expostos a qualquer conteúdo que esteja no centro de seus esforços, sejam pequenos trechos de áudio capturados por alto-falantes inteligentes durante interações de voz ou fotos que as pessoas enviam para um serviço de compartilhamento de fotos ou itens sinalizados em um feed de mídia social..
Algumas empresas levam a privacidade mais a sério do que outras. Algumas empresas podem não ser tão transparentes em termos de como seus editores humanos abordam a tarefa em questão quanto outras. E, finalmente, algumas empresas que não têm um histórico tão forte de proteção da privacidade do usuário provavelmente serão examinadas mais pela mídia e pelo público em geral do que por outras.,.
Mas eu não acredito nem por um segundo que seja do interesse de qualquer empresa exigir que seus funcionários realmente ouçam nossas conversas com um assistente digital pessoal apenas porque eles podem - ou porque eles esperam obter, de alguma forma, informações acionáveis daqueles particulares conversas - e evite isso por muitos e muitos anos sem que ninguém perceba ou reclame de nada. Isso simplesmente não é possível no mundo em rede de hoje.
Não me interpretem mal, eu aprecio muito o trabalho de investigação realizado por parte dos jornalistas que relatam essas coisas, porque eles dão aos cruzados da privacidade algo para mastigar. Mas não estou comprando nem por um segundo a conclusão implícita ou velada de que a Big Tech não está apenas empregando editores humanos para treinar Siri, Alexa e Google Assistant, mas também para escutar nossas conversas sobre algum futuro a ser revelado, mas propósitos certamente nefastos.
Sim, alguns funcionários da Amazon que ouvem as solicitações do Alexa têm acesso aos endereços residenciais dos usuários porque alguns pedidos falados incluem localização. E sim, algumas gravações do Assistente do Google revisadas por humanos podem incluir conversas privadas, porque os clientes podem dizer o que quiserem com o assistente digital.
É o que esses funcionários devem fazer com as gravações que contam no final do dia. É o fato de que alguns editores humanos desonestos podem usar indevidamente informações privadas de clientes que devem nos preocupar, e não o fato de os seres humanos estarem ouvindo para selecionar gravações de áudio em uma instalação segura e distante, com o objetivo explícito de melhorar o serviço..
Pensamentos?