As tecnologias de reconhecimento facial recolhem biliões de rostos que são armazenados para múltiplas utilizações, desde a identificação e o rastreio de indivíduos, até ao treino de redes neuronais profundas - o pilar da inteligência artificial (IA) moderna. Desde a etiquetagem de uma fotografia nas redes sociais ou o desbloqueio de um computador até às aplicações controversas do reconhecimento facial em espaços públicos, escolas, locais de trabalho e atividades de aplicação da lei, as tecnologias de processamento facial entraram em quase todos os aspetos das nossas vidas. Embora os benefícios esperados estejam relacionados com a segurança e a proteção, os críticos sublinham que estas tecnologias normalizam a vigilância e fragilizam a privacidade, exacerbam a discriminação e contêm falhas e imprecisões insuperáveis. O projeto fAIces pergunta: O que importa nas tecnologias de reconhecimento facial e porquê? Como é que atribuir importância acarreta diversas formas de implicação? Que formas de cidadania e de envolvimento público são afetadas? Como emergem escolhas éticas múltiplas e complexas? Este estudo desenvolve uma metodologia inovadora através da qual são tidas em consideração as perspetivas de grupos sociais que nunca foram estudados em conjunto e que estão implicados de forma conjunta mas antagónica nas tecnologias de reconhecimento facial: cientistas que realizam investigação sobre reconhecimento facial; profissionais que trabalham em start-ups e empresas de tecnologia; organizações de proteção de direitos digitais e activistas; comunidades negras; e artistas que incorporam o reconhecimento facial no seu trabalho. O projeto fAIces produzirá uma teoria social inovadora do rosto através da combinação de uma nova abordagem concetual - “etho-assemblages”, que transgride a ideia de princípios éticos fixos e dicotómicos pré-definidos - e a produção de dados empíricos originais. Os principais resultados assentam na expansão da ética e na imaginação de futuros alternativos, alimentando a cidadania e o envolvimento público e promovendo oportunidades para que o pensamento académico seja inspirado pelo ativismo, os grupos sub-representados e as práticas artísticas.
Centro de Investigação | Grupo de Investigação | Papel no Projeto | Data de Início | Data de Fim |
---|---|---|---|---|
CIES-Iscte | Educação e Ciência | Líder | 2025-03-02 | 2030-02-28 |
Instituição | País | Papel no Projeto | Data de Início | Data de Fim |
---|---|---|---|---|
Universidade do Minho (UMinho ) | Portugal | Parceiro | 2025-03-01 | 2030-02-28 |
Nome | Afiliação | Papel no Projeto | Data de Início | Data de Fim |
---|---|---|---|---|
Helena Machado | Investigadora Integrada (CIES-Iscte); | Coordenadora Global | 2025-03-01 | 2030-02-28 |
Susana de Noronha | Investigadora Integrada (CIES-Iscte); | Investigadora | 2025-03-01 | 2030-02-28 |
Código/Referência | DOI do Financiamento | Tipo de Financiamento | Programa de Financiamento | Valor Financiado (Global) | Valor Financiado (Local) | Data de Início | Data de Fim |
---|---|---|---|---|---|---|---|
ERC Advanced Grant n.º 10114066 | 10.3030/101140664 | Contrato | European Research Council - ERC Advanced Grant | 2467635 | A indicar | 2025-03-01 | 2030-02-28 |
Ano | Tipo de publicação | Referência Completa |
---|---|---|
2025 | Artigo em revista científica | Machado, H. (2025). Imaginários tecno-autoritários na América Latina: A contestação das tecnologias de reconhecimento facial. Sociologia, Problemas e Práticas. 107, 9-27 |
2025 | Autor de livro | Machado, H. & Silva, Susana (2025). Ethical Assemblages of Artificial Intelligence. Palgrave Macmillan Singapore. |
Não foram encontrados registos.
Não foram encontrados registos.
Não foram encontrados registos.
Não foram encontrados registos.