Abstract

Peut-on parler d’intelligence, d’intentionnalité et d’agence lorsqu’on observe les interactions d’un agent artificiel orienté par des algorithmes ? Et comment l’interaction d’un agent artificiel modifie-t-elle l’agence de l’être humain ? Partant de la “théorie de l’exonération” postulée par l’anthropologie philosophique et l’intégrant à la théorie relationnelle, nous examinerons dans cette recherche les effets déterminés par l’interaction asymétrique entre l’être humain et l’algorithme. Ce dernier, pour être efficace en termes de résultats prédictifs, doit rendre l’environnement stable et le comportement humain prévisible. Mais une société prévisible est contre-productive et handicapante pour l’être humain sur le plan relationnel. L’être humain doit donc changer sa perspective relationnelle avec l’IA, en évaluant de manière réflexive non seulement les résultats positifs/négatifs, mais aussi les aspects facilitateurs/ incapacitants.

Full Text
Paper version not known

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call

Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.