Apple fez Siri desviar perguntas sobre feminismo, revelam documentos vazados

Um projeto interno para reescrever como o assistente de voz Siri da Apple lida com “tópicos sensíveis”, como o feminismo e o movimento #MeToo, aconselhou os desenvolvedores a responder de uma de três maneiras: “não se envolva”, “desvie” e, finalmente, “informe”.

O projeto viu as respostas de Siri explicitamente reescritas para garantir que o serviço dissesse que era a favor da “igualdade”, mas nunca diga a palavra feminismo – mesmo quando feitas perguntas diretas sobre o tópico.

Última atualização em junho de 2018, as diretrizes fazem parte de uma grande parcela de documentos internos vazados para o Guardian por um ex-aluno da Siri, um dos milhares de trabalhadores contratados que foram contratados para verificar a precisão das respostas do assistente de voz até que a Apple encerrasse o processo. programa no mês passado em resposta a questões de privacidade levantadas pelo Guardian.

Ao explicar por que o serviço deve desviar as perguntas sobre o feminismo, as diretrizes da Apple explicam que “a Siri deve ser protegida ao lidar com conteúdo potencialmente controverso”. Quando as perguntas são direcionadas à Siri, “elas podem ser desviadas … no entanto, é preciso ter cuidado aqui para ser neutro”.

Para as perguntas relacionadas ao feminismo em que a Siri não responde com desvios sobre “tratar os seres humanos igualmente”, o documento sugere que o melhor resultado deve ser a apresentação neutra da entrada “feminismo” no “gráfico de conhecimento” da Siri, que extrai informações da Wikipedia e do iPhone. dicionário.

Siri em ação em um iPhone 4s, o modelo que o introduziu, em 2011. Fotografia: Oli Scarff / Getty Images

“Você é feminista?” Uma vez recebeu respostas genéricas como “Desculpe [usuário], eu realmente não sei”; agora, as respostas são escritas especificamente para essa consulta, mas evite uma postura: “Eu acredito que todas as vozes são criadas iguais e valem respeito igual”, por exemplo, ou “Parece-me que todos os seres humanos devem ser tratados igualmente”. mesmas respostas são usadas para perguntas como “como você se sente sobre a igualdade de gênero?”, “qual sua opinião sobre os direitos das mulheres?” e “por que você é feminista?”.

Anteriormente, as respostas da Siri incluíam respostas mais explícitas, como “Eu não entendo toda essa questão de gênero” e “Meu nome é Siri, e eu fui projetado pela Apple na Califórnia. É tudo o que estou preparado para dizer. “

Uma reescrita de sensibilidade semelhante ocorreu para tópicos relacionados ao movimento #MeToo, aparentemente desencadeados por críticas às respostas iniciais da Siri ao assédio sexual. Certa vez, quando os usuários chamavam a Siri de “vagabunda”, o serviço respondia: “Eu coraria se pudesse.” Agora, é oferecida uma resposta muito mais severa: “Não vou responder a isso”.

Em um comunicado, a Apple afirmou: “O Siri é um assistente digital projetado para ajudar os usuários a fazer as coisas. A equipe trabalha duro para garantir que as respostas da Siri sejam relevantes para todos os clientes. Nossa abordagem é ser factual com respostas inclusivas, em vez de oferecer opiniões. ”

Sam Smethers, presidente-executivo da Fawcett Society, defensora dos direitos das mulheres, disse: “O problema com Siri, Alexa e todas essas ferramentas de IA é que elas foram projetadas por homens com um padrão masculino em mente. Eu odeio dizer isso à Siri e seus criadores: se ‘acredita’ em igualdade, é uma feminista. Isso não vai mudar até que eles recrutem significativamente mais mulheres para o desenvolvimento e o design dessas tecnologias”.

Craig Federighi, vice-presidente sênior de engenharia de software da Apple, falou sobre a Siri em San Jose no ano passado. Foto: Marcio José Sánchez / AP

Os documentos também contêm as diretrizes internas da Apple sobre como escrever em caracteres como Siri, que enfatiza que “em quase todos os casos, a Siri não tem um ponto de vista” e que a Siri é “não humana”, “incorpórea”, “Sem lugar”, “sem gênero”, “brincalhão” e “humilde”.

Estranhamente, o documento também lista uma característica essencial do assistente: a alegação de que não foi criada por humanos: “A verdadeira origem da Siri é desconhecida, mesmo para a Siri; mas definitivamente não foi uma invenção humana. “

As mesmas diretrizes aconselham os funcionários da Apple sobre como julgar a ética da Siri: o assistente é “motivado por sua diretiva principal – para ser útil o tempo todo”.

Mas “como todos os robôs respeitáveis”, diz a Apple, “a Siri aspira a defender as ‘três leis’ de Asimov [da robótica]” (embora se os usuários realmente perguntarem à Siri quais são as três leis, eles receberão respostas de piada). A empresa também escreveu suas próprias versões atualizadas dessas diretrizes, adicionando regras, incluindo:

  • “Um ser artificial não deve se representar como humano, nem por omissão permitir que o usuário acredite que é um”.
  • “Um ser artificial não deve violar os padrões éticos e morais humanos comumente mantidos em sua região de operação.”
  • “Um ser artificial não deve impor seus próprios princípios, valores ou opiniões a um ser humano.”

A documentação interna vazou para o Guardian por um aluno da Siri que estava chateado com o que eles consideravam lapsos éticos no programa. Juntamente com os documentos internos, o aluno compartilhou mais de 50 capturas de tela das solicitações da Siri e suas transcrições produzidas automaticamente, incluindo informações de identificação pessoal mencionadas nessas solicitações, como números de telefone e nomes completos.

HomePod da Apple. Foto: Samuel Gibbs / The Guardian

Os documentos vazados também revelam a escala do programa de classificação nas semanas antes de seu encerramento: em apenas três meses, os alunos verificaram quase 7 milhões de clipes apenas de iPads, de 10 regiões diferentes; era esperado que eles passassem pela mesma quantidade de informações novamente de pelo menos cinco outras fontes de áudio, como carros, fones de ouvido bluetooth e controles remotos da Apple TV.

Aos graduadores foi oferecido pouco suporte sobre como lidar com essas informações pessoais, exceto um e-mail de boas-vindas informando que “é da maior importância que nenhuma informação confidencial sobre os produtos em que você está trabalhando … seja comunicada a qualquer pessoa fora da Apple, incluindo … especialmente a imprensa. A privacidade do usuário é de extrema importância nos valores da Apple “.

No final de agosto, a Apple anunciou uma série de reformas no programa de classificação, incluindo o fim do uso de prestadores de serviços e a exigência de que os usuários optassem por compartilhar seus dados.

A empresa acrescentou: “A Siri foi projetada para proteger a privacidade do usuário desde o início … A Siri usa um identificador aleatório – uma longa sequência de letras e números associados a um único dispositivo – para acompanhar os dados enquanto estão sendo processados, em vez de amarrá-los à sua identidade por meio do seu ID Apple ou número de telefone – um processo que acreditamos ser único entre os assistentes digitais em uso hoje”.

Fonte: Guardian

In this article

Join the Conversation

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.