Abstract
O emprego de tecnologias baseadas em Inteligência Artificial (IA) para subsidiar estratégias marciais e policialescas tem crescido muito nos últimos anos. Sistemas baseados em IA são responsáveis por remodelar as estratégias em conflito, mas, acima de tudo, eles também têm embasado modelos de controle social em um contexto de contrainsurgência — onde a gestão de ambientes urbanos, de interações sociais como forma de eliminar grupos radicais é um objetivo central. Em ambas as aplicações, no entanto, verifica-se um enorme potencial abusivo e intrusivo, capazes de colocar em risco a segurança e os direitos de pessoas e grupos. Nesse sentido, o objetivo deste artigo é explorar como as tecnologias baseadas em IA se baseiam em imanências políticas autoritárias, associadas a uma fase “caopléxica”, conforme apontado por Bousquet (2022), e, dessa forma, tendem a ampliar formas repressivas e modelos abusivos de promoção da violência em conflitos. Para tanto, nos apoiamos nos Estudos Sociais da Ciência e da Tecnologia e nos estudos de filosofia e história da guerra, além de mobilizar dados e informações relativas a sistemas baseados em IA com potencial abusivo.
Talk to us
Join us for a 30 min session where you can share your feedback and ask us any queries you have
Similar Papers
Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.