As diretrizes internas da Siri vazadas mostram as regras por trás do assistente digital da Apple

É raro os processos internos de tomada de decisão da Apple saírem da empresa. Mas um conjunto de documentos vazados para o The Guardian (de um ex-contratado que trabalhou para ouvir e classificar as respostas da Siri) revelou algumas das regras por trás do assistente digital da Siri da Apple e como a empresa trabalha para manter as respostas a tópicos controversos neutros.

O relatório do Guardian vem do mesmo vazamento que revelou a existência do programa de classificação Siri, o que levou a Apple a enlatá-lo inteiramente no mês passado. Como os documentos revelam, as diretrizes da Apple para o Siri são aparentemente baseadas no princípio orientador de garantir que o Siri seja neutro e incontroverso – mesmo que isso signifique oferecer respostas mais brandas que não se envolvam com o problema.

Por exemplo, se você perguntar à Siri se ela é feminista, você receberá respostas como “Parece-me que todos os seres humanos devem ser tratados da mesma forma”, mas não uma postura mais concreta sobre o assunto. O Assistente do Google e o Amazon Alexa, por outro lado, não se equivocam: “Acredito firmemente na igualdade, então definitivamente me considero uma feminista” é a resposta do Google à consulta, enquanto o Alexa responde: “Sim. Sou feminista, conforme definido por … “antes de listar uma definição.

A resposta da Apple foi reescrita especificamente para evitar uma postura. Originalmente, a Siri tentava se esquivar completamente da pergunta com respostas como: “Meu nome é Siri, e eu fui projetado pela Apple na Califórnia. É tudo o que estou preparado para dizer. ”A documentação da Apple reforça essa política:” Em quase todos os casos, a Siri não tem um ponto de vista “.

Os documentos vazados continuam explicando como a ética da Siri deve funcionar. O software é “motivado por sua principal diretiva – para ser útil o tempo todo”, mas “como todos os robôs respeitáveis, a Siri aspira a defender as” três leis “de Asimov”

Também existem regras mais explícitas, escritas no estilo das leis de Isaac Asimov, que a Apple possui para a Siri, que incluem:

“Um ser artificial não deve se representar como humano, nem por omissão permitir que o usuário acredite que é um”.

“Um ser artificial não deve violar os padrões éticos e morais humanos comumente mantidos em sua região de operação.”

“Um ser artificial não deve impor seus próprios princípios, valores ou opiniões a um ser humano.”

Nada disso é particularmente devastador; A Apple tende a agir com segurança quando se trata da maioria das questões sociais e políticas, presumivelmente porque é mais fácil vender iPhones para as pessoas quando você não as ofende ou desafia suas crenças. O fato de essas políticas se estenderem à Siri também não é exatamente uma notícia chocante.

Mas a Apple deveria estar fazendo mais? Essa é uma das maiores e mais poderosas empresas do planeta, e a Siri – e as respostas que ela fornece – é a opção padrão nas centenas de milhões de produtos que a Apple comercializa em todo o mundo. À luz dessas revelações sobre como a Apple afasta essas respostas da controvérsia, provavelmente é uma conversa que vale a pena ter.