Abstract

В статье артикулируются антропологические вызовы искусственного интеллекта (ИИ) в модусе концептуализации и восприятия рисков и угроз, благ и выгод, происходящих от новой технологии. Образы антропологических вызов находят разные формы репрезентации в научных концептах и философской рефлексии, в визуализациях в современных видах искусства, в компьютерных играх, кинематографе, институционализированы в правилах этических руководств. Все они могут быть рассмотрены как поиск ответов на проблематизацию человека, его субъектности, целостности, открытости, которые подвергаются риску в технологиях ИИ. Образы восприятия канализированы в позиции в отношении к ИИ и одновременно определяются практиками его широкого внедрения. Концепт ИИ формируется в лексическом топосе осмысления цивилизационного вызова. Понятие «искусственный интеллект» превращается в метафору широкого порядка, порождающую множественные концептуальные модификации. Концепт ИИ, соединяя метафорическое и понятийное, выполняет функцию «оестествления», «опривычивания» технологии. Особенностью в обобщении позиций в отношении к искусственному интеллекту является их нелинейность и целевое формирование. Рассмотрены три варианта оформления образов антропологических вызовов ИИ: алармистский, инструменталистский (профессиональный) и утилитарный (пользовательский). Коллективный ответ на антропологические вызовы ИИ вероятно будет строиться на утилитарно-прагматической основе, концептуально и институционально репрезентированный в этическом регулировании. Для нивелирования антропологических рисков действенными могут быть индивидуальные ответы на основе самосохраняющей стратегии и когнитивной гигиены, начиная со сферы образования. Разработка правил и процедур такой сохраняющей стратегии – задача, которая встает в контексте развития ИИ. Гуманитарная экспертиза нейросетей может стать частью этой стратегии. The challenges of artificial intelligence are considered from the methodological basis of bioethical analysis of anthropological risks and threats posed by new technologies. Society exhibits a cautious attitude towards artificial intelligence technology. Anthropological challenges of artificial intelligence represent a problematic situation regarding the complexity of assessing the benefits and harms, adequate awareness of the risks and threats of new technology to humans. It is necessary to conceptually outline the anthropological challenges of AI, drawing on images of AI perception represented in art and cinema, in ethical rules, philosophical reflection, and scientific concepts. In the projection of various definitions, artificial intelligence becomes a metaphor that serves as a source of creative conceptualizations of new technology. Images of AI are identified through conceptualization, visualization, and institutionalization of risks and correspond to specific types of attitudes towards innovation in society. The peculiarity of AI perception images, both in the forms of conceptualization and in the visual or institutional objectification of these images in ethical codes, is their active and purposeful formation. Analogous to the regulation of biotechnologies, normatively conceptualized positions regarding new technologies are divided into conservative - restrictive and prohibitive; liberal - welcoming innovations; and moderate - compromising, which often becomes the basis for ethical and legal regulation. However, sociological surveys show that those who welcome the emergence of neural networks, the widespread use of artificial intelligence, also exhibit caution and uncertainty in assessing the human future. A three-part typology of perception images of anthropological challenges is proposed, in which non-linear opposition of positions towards AI is fixed, but vectors of possible ways of habituating and semiotization of the future are outlined. The first, alarmist type, is distinguished based on an emotionally evaluative attitude. New technologies are seen as redundant, causing alarm and fear. The second type of perception, instrumentalist, is characteristic of AI actors within a professionally formed worldview. Some concepts of the professional thesaurus become common parlance. The third type is user-oriented. For this type, it is important how the interaction between AI and humans unfolds. The collective response to the anthropological challenges of AI is more likely to be formed on a utilitarian-pragmatic basis. Effective responses may be based on an individual self-preservation strategy, which, for example, may require adherence to cognitive hygiene in the field of education. In the context of AI development, the task arises of developing rules and procedures for such a preservation strategy.

Full Text
Published version (Free)

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call