Um artigo escrito por Felipe Rodriguez Alvarez nos traz uma comparação muito boa sobre a inteligência artificial e LGPD de uma forma bem didática e específica.
Divido o artigo na íntegra, com autorização do autor:
Inteligência Artificial: Ética e LGPD
INTRODUÇÃO
Os anseios pela proteção de dados pessoais somado a sociedade que aprendeu a reconhecer padrões[1] para definição de quem é apto a tomar créditos até ao reconhecimento do potencial de compra de determinada parte da população, tem inclinado os acadêmicos ao redor do mundo num esforço hercúleo para identificar premissas para que o uso de decisões automatizadas não agravem a crise que vivemos quanto ao enviesamento de dados.
O professor GILLESPIE, no ano de 2014 já ponderava que ‘acreditar que algoritmos sejam isentos de subjetividade é uma ficção cuidadosamente construída[2], porquanto a seleção dos dados no processamento dos dados, dependerão de prescrições para o dado básico, aquele de entrada no processo de aprendizado de máquina.
Se de um lado a preocupação ética repousa sobre os acadêmicos, os inovadores não parecem sentir a importância sobre o tema. A ansiedade na demonstração do ´novo´ e o desejo de monetizar a invenção, inadmite que os testes aos recursos prescindem a reflexão dos padrões e comportamentos que ensinaremos as máquinas.
Na sociedade atual a inteligência artificial já nos empresta suas maravilhas para diagnósticos clínicos, avaliação de sinistralidades, determinação de rotas logísticas e reconhecimento da popularidade das campanhas publicitárias, para citar apenas alguns exemplos.
O ensino da máquina é feito através de dois métodos: (a) supervisionado e (b) sem supervisão. O primeiro é fornecer a máquina um banco de dados e deixar com que ela reconheça por si os padrões e passe a organizar parâmetros para determinar premissas.
O último, estabelece uma metodologia de ensino e define as premissas para que a máquina passe a coletar informações e organizar as informações sob um design supervisionado, que chamamos de curadoria de dados.
A preocupação quanto a ética repousa nos dois processos, porquanto em nossa era de direitos temos observado que a inovação irresponsável corrompe direitos, especialmente o direito à privacidade.
Então, a harmonia entre ética e inteligência artificial é fundamental para os limites sociais que se pretende com o uso das novas tecnologias. E ao contrário do que muitos pensam, o avanço tecnológico jamais colidiu com a integridade ética, antes revelou-se fundamental para a perenidade de seu uso em sociedade.
O IMPACTO DA RECOMENDAÇÃO DA OCDE
No dia 22 de maio de 2019 a Organização de Cooperação pelo Desenvolvimento Econômico divulgou um importante documento, descrevendo limites éticos para o uso de inteligências artificiais.
O impacto do documento é importante pois trata-se de um primeiro esboço intergovernamental sobre o uso de inteligências artificiais e a promoção dela sob os ideais democráticos e proteção aos direitos humanos.
Os cinco valores base foram definidos como:
1. Sustentabilidade no desenvolvimento, crescimento inclusivo e bem-estar
2. Imparcialidade e centralidade no controle humano
3. Transparência e hábil a justificar lógicas no processo decisório
4. Robustez quanto a segurança e justiça na decisão automatizada
5. Responsabilidade e Prestação de contas do controlador do dado
Além dessas premissas, a recomendação preocupou-se em propor que as políticas nacionais ou firmadas por entes e classes privadas adotem os seguintes parâmetros ao uso de IA:
1. Investimento em pesquisa e desenvolvimento da tecnologia de IA
2. Fomento no ecossistema digita para IA
3. Construção de políticas específicas para IA
4. Capacitação humana, profissional para preparação da transformação digital do mercado
5. Cooperação internacional para o desenvolvimento e manutenção da tecnologia
IMPACTOS ÉTICOS
No ano de 2016 a mesma OCDE havia preparado um documento listando as preocupações do uso da tecnologia de inteligência artificial sem qualquer premissa, e vimos que o trabalho ao longo de três anos, surtiram nas cinco recomendações para o desenvolvimento da tecnologia.
Naquele documento passado, destaque-se as preocupações quanto ao desemprego, distribuição de renda e a estupidez artificial.
a. Desemprego
O desemprego foi listado em razão de que o aumento da tecnologia aumentará a exigência de candidatos qualificados a tarefas estratégicas, à medida que o trabalho repetitivo será escasso.
Então, a transposição operacional para o estratégico, aumentará as taxas de desemprego e desfavorecerá os menos instruídos.
Outro ponto citado na reflexão de 2016 foi a relação que o ser humano terá com o seu tempo livre, porquanto as máquinas darão aos humanos o recurso escasso que é o tempo livre.
A civilização humana por séculos vende o seu próprio tempo em troca de receber prestação pecuniária que suporte o sustento próprio e o de sua família.
A transição a realidade da chamada sociedade pós-trabalho oportunizará aos cidadãos a ressignificarem as razões da própria existência, diametralmente oposto a venda do tempo.
Por fim, a transição incorrerá no questionamento dos sucessores quanto as barbáries de comercializar o próprio tempo somente em troca de dinheiro e sustento.
b. Desigualdade
O sistema econômico baseia-se no cálculo da hora de trabalho e tributos que deverão ser recolhidos ao Estado. Este coeficiente é chamado de “hora trabalho”. A maioria das empresas usa o coeficiente (valor hora de trabalho) para precificar o seu serviço ou produto.
O uso de inteligência artificial reduzirá a despesa das companhias com trabalhadores e a distribuição de receitas ficará concentrada em poucas pessoas. De outro lado, os empreendedores de IA serão os novos receptores das receitas que outrora eram de trabalhadores.
Naturalmente a lacuna entre ricos e pobres aumentará entre a população mundial. O exemplo dado no relatório reflexivo apoia-se que três empresas de Detroit, com inúmeros funcionários, tributos e outros custos fixos trouxe a mesma lucratividade de uma startup de tecnologia da região do Vale do Silício.
O ponto de reflexão é que na sociedade pós-trabalho e o uso de inteligência artificial serão necessários a implantação de políticas sociais para corrigir a curva do desenvolvimento e inovação, especialmente quando tais alterarão a estrutura econômica da sociedade atual.
c. Estupidez Artificial
Para os cinéfilos, o filme “Idiocracy, 2005”, retrata uma sociedade futurista, altamente tecnológica que perpassa por seres humanos idiotizados e sem capacidade de raciocínios básicos pela dependência tecnológica.
A cada dia que passa, a inovação deixa de lado o trunfo principal dos seres humanos: a possibilidade de reinventar-se para alcançar mais por menos. Embora atualmente as soluções de bots sejam facilmente enganadas por nossa habilidade humana em confundi-las, o aprendizado transferirá tais habilidades, com a desvantagem de que a velocidade de raciocínio de uma máquina é superior a de um humano.
Nós já testemunhamos o poder que as máquinas possuem em capturar a atenção de humanos através de gatilhos mentais de percepção e fascínio, como é o caso dos vídeos games e de iscas de anúncios (click-bait).
Então a tecnologia, se usada por premissas benéficas a sociedade humana estimulará comportamentos benéficos a todos. De outro lado, poderá viciar e escravizar seres humanos.
PRECAUÇÃO E LEI GERAL DE PROTEÇÃO DE DADOS
Em excelente artigo científico[3] escrito pelos autores Bruno Ricardo Bioni e Maria Luciano, foi admitido um empréstimo do princípio da precaução, muito utilizado em questões de meio ambiente para o mundo da inovação e tecnológica.
Em resumo, o artigo propõe que o uso do princípio da precaução reconheceria a assimetria de poder e de informação dos processos de avaliação regulatória e ajudaria a remodelar diferentes conhecimentos dos diversos atores envolvidos e afetados por esses processos.
Além disso, assumiria compromissos com a deliberação e prestação de contas, assegurando justificações explícitas e cuidadosas sobre as escolhas regulatórias feitas diante de um conhecimento ainda incompleto.
Deste cenário surge as reflexões sobre a Lei Geral de Proteção de Dados e a revisão das decisões automatizadas proposta no artigo 20 da citada lei[4].
Os autores sustentam que o Relatório de Impacto, deverá conter os caminhos lógicos que o recurso de IA estabeleceu para a tomada de decisão automatizada, sem olvidar a possibilidade do usuário requerer explicações caso sinta-se lesado quanto ao seu potencial direito de pertencer a um determinado grupo econômico ou social que a decisão perfilizada o deixou de fora.
A LGPD não apresentou qualquer solução prática, o que nos leva a pensar que caberá ao detentor da tecnologia demonstrar a Autoridade Nacional de Proteção de Dados (ANPD) um relatório de impacto específico sobre a situação informando as premissas lógicas utilizadas para o aprendizado da máquina e a tomada de decisão extraído do recurso através de IA.
No artigo, há menção a um projeto de lei norte americana que projeta o tipo de relatório de impacto quando houver decisão automatizada por um algoritmo de IA, mas sem conclusões até o fechamento deste artigo[5].
A atual formatação da lei geral de proteção de dados, embora pudesse cuidar de novas tecnologias com maior rigor, poderá constituir um vetor protetivo sobre a aplicação de IA em processos decisórios, especialmente para esclarecer ao titular do dado quais foram os parâmetros utilizados, evitando o desconforto social visto hoje em dia quanto a restrições de empresas ao uso de serviços ou aquisição de produtos sem o detalhamento das justificativas.
CONCLUSÃO
Embora a matéria não estimule inovadores a pensar os modelos de contratação de inteligência artificial, faz-se a nossa, a responsabilidade de promover que o uso da tecnologia importa em construir uma curadoria de dados eficiente a evitar os desvios naturais que uma máquina em aprendizado possa proporcionar a sociedade.
É incontestável que os parâmetros sociais e econômicos serão outros daqui vinte anos. No entanto, a transformação da sociedade prescinde de uma lógica razoável entre os humanos afim de que a própria tecnologia não caia em desuso pela inexperiência dos inovadores frente a uma sociedade que requer mudanças, mas resistente aos solavancos que parecem inevitáveis.
Estamos diante de um momento histórico, cuja preocupação é o estabelecimento de valores para que a tecnologia seja utilizada em amplitude.
Mais do que isso, é reconhecer que a própria invenção humana ressignificará o papel do homem em sociedade, sem descuidar que esses titulares preservem o que por ora nos é impensável abdicarmos: os direitos humanos.
BIBLIOGRAFIA
GILLESPIE, Tarleton. The relevance of algorithms. In (Ed.), Media Techonologies: Essays on Communication, Materiality and Society. Cambridge: The MIT Press, 2014.
BIONI, Bruno Ricardo; LUCIANO, Maria. O Princípio da precaução na regulação de inteligência artificial: seriam as leis de proteção de dados o seu portal de entrada?
ZANATTA, Rafael. A proteção de dados pessoais como regulação do risco: uma nova moldura teórica? In: I encontro da rede de pesquisa em Governança da Internet. Rio de Janeiro: Rede de Pesquisa em Governança da Internet, 2018, p.175-193.
QUELLE, Claudia. Privacy, Proceduralism and Self-regulation in data protection law, Rochester, NY: Social Science Research Network, 2017, p.96.
DATA & SOCIETY. Algorithmic Accountability: A primer, 2018.
[1] Profiling
[2] GILLESPIE, Tarleton. The relevance of algorithms. In (Ed.), Media Techonologies: Essays on Communication, Materiality and Society. Cambridge: The MIT Press, 2014.
[3] O princípio da precaução na regulação de inteligência artificial: seriam as leis de proteção de dados o seu portal de entrada?
[4] Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. (Redação dada pela Medida Provisória nº 869, de 2018).
§ 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão
automatizada, observados os segredos comercial e industrial.
§ 2º Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais.
[5]https://www.wyden.senate.gov/imo/media/doc/Algorithmic%20Accountability%20Act%20of%202019%20Bill%20Text.pdfFONTE: HTTPS://WWW.RODRIGUEZALVAREZ.COM.BR/BLOG/INTELIG%C3%AANCIA-ARTIFICIAL-%C3%A9TICA-E-LGPD
Reflexões importantes, não é mesmo?
Como temos que avançar no conhecimento que temos destes assuntos para que possamos ter um nível decisório adequado e eficiente. Estudar é imperioso!
E o que você tem feito a respeito?
Camarão que dorme a onda leva! Bora aprender e executar, posto que diz um ditado budista que ” Saber e não fazer, é ainda não saber”.
#FraternoAbraço
Gustavo Rocha
Consultoria GustavoRocha.com | Gestão, Tecnologia e Marketing Estratégicos
Robôs | Inteligência Artificial | Jurimetria
(51) 98163.3333 | gustavo@gustavorocha.com | www.gustavorocha.com