107 publications found
Sort by
Shared decision-making, quality of life, and the child’s best interest: ethical challenges in decision-making in preterm infants at the limit of viability

ZusammenfassungBehandlungsentscheidungen bei Frühgeburten an der Grenze der Lebensfähigkeit stellen eine große Herausforderung dar. In der Neonatologie hat sich das Konzept einer prognostischen Grauzone etabliert, die als ein Grenzbereich verstanden wird, in dem sich aus medizinischer Sicht die Nutzen-Risiko-Abwägung aufgrund der unsicheren Prognose sehr schwierig gestaltet und sich aus ethischer Sicht sowohl eine kurative als auch eine palliative Versorgung prinzipiell rechtfertigen lassen. Innerhalb der Grauzone wird zumeist eine gemeinsame Entscheidungsfindung mit den Eltern in Form eines „shared-decision making“ (SDM) favorisiert, die sich an dem besten Interesse des Neugeborenen orientieren soll. Allerdings findet sich kein Konsens dazu, wie diese Anforderungen umzusetzen sind. Im vorliegenden Beitrag werden unter Einbeziehung der empirischen Studienlage ethische Anforderungen an die Umsetzung des SDM formuliert. Es wird gezeigt, dass Eltern bzw. Schwangere unterschiedliche Präferenzen hinsichtlich der Art ihrer Einbindung haben. Hieraus ergibt sich aus ethischer Sicht die Anforderung, im Rahmen des SDM gemeinsam herauszuarbeiten, welche Rolle sie bei der Entscheidungsfindung einnehmen wollen und welche Präferenzen und Werte für sie bei der Therapieentscheidung von Relevanz sind. Zudem wird in unserer Untersuchung auf die Frage eingegangen, inwiefern die zu erwartende Lebensqualität der Kinder in die Bestimmung des besten Interesses der Neugeborenen einbezogen werden kann. Es wird gezeigt, dass in der prognostischen Grauzone neben den Präferenzen der Eltern bzw. Schwangeren gegenwärtig kaum Kriterien zur inhaltlichen Bestimmung des besten Interesses des Neugeborenen zur Verfügung stehen – ein wesentlicher Grund, der aus ethischer Sicht für die Implementierung des skizzierten Modells des SDM spricht.

Open Access
Relevant
Soziale Vulnerabilität am Beispiel der Krebstherapie

ZusammenfassungLebensweltliche Bedingungen können sich als Barrieren in Hinblick auf die Durchführung einer von den Patient*innen gewählten – beispielsweise onkologischen – Therapie erweisen und den Therapieerfolg gefährden. Solche lebensweltlichen Herausforderungen lassen sich als Schichten sozialer Vulnerabilität begreifen. In dieser Arbeit wird untersucht, ob es geboten ist, herausfordernde soziale Lebensbedingungen von Patient*innen systematisch bei Therapieentscheidungen zu berücksichtigen. Hierfür wird der Befähigungsansatz nach Martha Nussbaum herangezogen, der die Achtung der Patient*innenautonomie mit der Möglichkeit der Unterstützung durch Dritte zusammenbringt. Anschließend werden anhand des Schichten-Konzeptes von Florencia Luna Vorschläge dafür formuliert, wie soziale Vulnerabilitäten in der Praxis erfasst werden könnten. Obwohl die Überlegungen zum vorliegenden Text aus Beobachtungen der onkologischen Behandlungssituation heraus entstanden sind, lassen sie sich auch auf andere Therapiefelder, die lange Behandlungsdauern mit regelmäßigen Anwesenheiten verlangen, übertragen.Die vorliegende Untersuchung kommt zu dem Ergebnis, dass die ethische Pflicht besteht, lebensweltliche Faktoren in gemeinsame Therapieentscheidungen miteinzubeziehen und den Patient*innen ggf. Unterstützung anzubieten, um den Zugang zu der von ihnen gewählten Therapie zu ermöglichen.

Open Access
Relevant
Can robots be trustworthy?

Definition of the problemThis article critically addresses the conceptualization of trust in the ethical discussion on artificial intelligence (AI) in the specific context of social robots in care. First, we attempt to define in which respect we can speak of ‘social’ robots and how their ‘social affordances’ affect the human propensity to trust in human–robot interaction. Against this background, we examine the use of the concept of ‘trust’ and ‘trustworthiness’ with respect to the guidelines and recommendations of the High-Level Expert Group on AI of the European Union.ArgumentsTrust is analyzed as a multidimensional concept and phenomenon that must be primarily understood as departing from trusting as a human functioning and capability. To trust is an essential part of the human basic capability to form relations with others. We further want to discuss the concept of responsivity which has been established in phenomenological research as a foundational structure of the relation between the self and the other. We argue that trust and trusting as a capability is fundamentally responsive and needs responsive others to be realized. An understanding of responsivity is thus crucial to conceptualize trusting in the ethical framework of human flourishing. We apply a phenomenological–anthropological analysis to explore the link between certain qualities of social robots that construct responsiveness and thereby simulate responsivity and the human propensity to trust.ConclusionAgainst this background, we want to critically ask whether the concept of trustworthiness in social human–robot interaction could be misguided because of the limited ethical demands that the constructed responsiveness of social robots is able to answer to.

Open Access
Relevant
Rechtliche Aspekte des Einsatzes von KI und Robotik in Medizin und Pflege

ZusammenfassungDie rasanten Entwicklungen im Bereich der Künstlichen Intelligenz und Robotik stellen nicht nur die Ethik, sondern auch das Recht vor neue Herausforderungen, gerade im Bereich der Medizin und Pflege. Grundsätzlich hat der Einsatz von KI dabei das Potenzial, sowohl die Heilbehandlungen als auch den adäquaten Umgang im Rahmen der Pflege zu erleichtern, wenn nicht sogar zu verbessern. Verwaltungsaufgaben, die Überwachung von Vitalfunktionen und deren Parameter sowie die Untersuchung von Gewebeproben etwa könnten autonom ablaufen. In Diagnostik und Therapie können Systeme die behandelnde Ärztin unterstützen. Intelligente Betten ermöglichen eine Frühmobilisierung der Patient:innen bei gleichzeitig geringerem Personalaufwand. Gleichwohl birgt der Einsatz der Systeme rechtliche Herausforderungen. So besteht das Risiko einer Verletzung der beteiligten Personen. Im Gegensatz zu herkömmlichen Technologien „leidet“ KI unter der „Black-Box-Problematik“: Die von den Systemen generierten Ergebnisse sind nicht mehr vollständig vorhersehbar und nachvollziehbar. Der Einsatz birgt unbekannte und unkalkulierbare Risiken, was sich insbesondere auf die zivilrechtliche Haftung und strafrechtliche Verantwortung auswirkt. Wem die Entscheidungen der Systeme normativ zuzurechnen sind, ist eine Kernfrage des juristischen Diskurses. Die aus praktikabilitätsgründen naheliegende Wahl, dem letztentscheidenden Menschen das Verhalten eines KI-Systems zuzurechnen, überzeugt nicht in allen Fällen, sondern degradiert ihn häufig zum symbolischen Haftungsknecht und legt ihm einseitig die Risiken der Technologien auf. Weiterhin ergeben sich im Bereich der Medizin und Pflege Fragen hinsichtlich der Zulassung von KI-Systemen, da die Maschinen während der Nutzung weiterlernen und so ihren strukturellen Aufbau kontinuierlich verändern. Es ist daher angebracht, sich frühzeitig mit dem Konfliktpotential aus ethischer und rechtlicher Sicht auseinander zu setzen, um einer potenziellen gesellschaftlichen Angst vor derartigen Systemen vorzubeugen und einen praxisgerechten Handlungsrahmen zu schaffen.

Open Access
Relevant
Levels of explicability for medical artificial intelligence: What do we normatively need and what can we technically reach?

Definition of the problemThe umbrella term “explicability” refers to the reduction of opacity of artificial intelligence (AI) systems. These efforts are challenging for medical AI applications because higher accuracy often comes at the cost of increased opacity. This entails ethical tensions because physicians and patients desire to trace how results are produced without compromising the performance of AI systems. The centrality of explicability within the informed consent process for medical AI systems compels an ethical reflection on the trade-offs. Which levels of explicability are needed to obtain informed consent when utilizing medical AI?ArgumentsWe proceed in five steps: First, we map the terms commonly associated with explicability as described in the ethics and computer science literature, i.e., disclosure, intelligibility, interpretability, and explainability. Second, we conduct a conceptual analysis of the ethical requirements for explicability when it comes to informed consent. Third, we distinguish hurdles for explicability in terms of epistemic and explanatory opacity. Fourth, this then allows to conclude the level of explicability physicians must reach and what patients can expect. In a final step, we show how the identified levels of explicability can technically be met from the perspective of computer science. Throughout our work, we take diagnostic AI systems in radiology as an example.ConclusionWe determined four levels of explicability that need to be distinguished for ethically defensible informed consent processes and showed how developers of medical AI can technically meet these requirements.

Open Access
Relevant
Ethische Fragen digitaler Pflegeplanung und Pflegedokumentation

ZusammenfassungDigitale Programme unterstützen mittlerweile sowohl die Erhebung des Pflegebedarfs und die Pflegeplanung als auch die Dokumentation der geleisteten Pflege. Neben Verbesserungen ergeben sich jedoch auch Spannungen zwischen der Verrichtungsorientierung und Standardisierung der digitalen Systeme und dem Fürsorgeethos der Pflege. Daher sind digitale Systeme sowohl aus pflegefachlicher als auch aus pflegeethischer Sicht zu beleuchten, um Chancen und Risiken aufzuzeigen.Pflegeverständnis und Pflegeziele werden in digitalen Programmen nicht explizit gemacht. Bedingt durch die mangelnde Transparenz können sich professionell Pflegende mit gegebenenfalls anderen Pflegeverständnissen nicht dazu verhalten und von den Gepflegten auch keine angemessene Zustimmung zu Pflegemaßnahmen und -zielen einholen. Die Analyse einiger gängiger Programme zeigt, dass digitale Systeme zur somatischen Verkürzung der Pflege tendieren. So werden derzeit Ziele und Maßnahmen zur Kommunikation, Beziehungsgestaltung und Begleitung in Phasen von Krankheit und Sterben kaum abgebildet.In der Einführung digitaler Systeme liegt im Grunde die Chance eines Neubeginns, da sie durch digitale Normierungen zu stärkerer Patientenorientierung und Partizipation beitragen könnten. Es sollte zugleich jedoch die Partizipation der Betroffenen gewährleistet und die Transparenz und Veränderbarkeit der Systeme gewährleistet sein.

Open Access
Relevant
Trojan technology in the living room?

Definition of the problemAssistive technologies, including “smart” instruments and artificial intelligence (AI), are increasingly arriving in older adults’ living spaces. Various research has explored risks (“surveillance technology”) and potentials (“independent living”) to people’s self-determination from technology itself and from the increasing complexity of sociotechnical interactions. However, the point at which self-determination of the individual is overridden by external influences has not yet been sufficiently studied. This article aims to shed light on this point of transition and its implications.ArgumentsThe identification of this “tipping point” could contribute to analysis of familiar issues of conflict between the ethical principles of beneficence and respect for autonomy. When using technology in the living spaces of older adults, relationships, among other factors, may play a crucial role in older adult’s self-determination. We find the tipping point to occur subjectively and variably. To this end, the article combines theoretical ethical considerations with two examples from a qualitative study illustrating the perspective of older adults aged 65–85 years.ConclusionThe study of the tipping point underscores the importance of perceiving an older person’s perspective. Particularly at the tipping point, this might be the only way to effectively identify whether the individual concerned perceives their self-determination as externally overridden. In conceptualizing the tipping point itself as well as its variability, we might create the basis for a normative call to shift the tipping point to promote self-determination and prevent overriding the will of older adults. We highlight individual, relational, and societal implications of our findings.

Open Access
Relevant
„Mit Bluetooth ein Signal der Solidarität senden“? – Eine medizinethische Analyse der öffentlichen Debatte über die Corona-Warn-App

ZusammenfassungIn der öffentlichen Debatte über die Corona-Warn-App kann der Solidaritätsbegriff als wichtiger, aber inhaltlich umstrittener normativer Bezugspunkt gelten. So stehen hier unterschiedliche Solidaritätsrekurse mit heterogenen Voraussetzungen, normativen Implikationen und praktischen Konsequenzen nebeneinander, die einer medizinethischen Untersuchung bedürfen. Vor diesem Hintergrund ist es Ziel des Beitrags, erstens die Bandbreite der Verwendungsweisen des Solidaritätsbegriffs in der öffentlichen Debatte zur Corona-Warn-App anschaulich zu machen sowie zweitens die Voraussetzungen und normativen Implikationen dieser Verwendungsweisen herauszuarbeiten und einer ethischen Bewertung zu unterziehen.Dazu stelle ich nach einer kurzen Einführung in die Corona-Warn-App und einer Vergegenwärtigung der Grundzüge des Solidaritätskonzepts vier Beispiele aus der öffentlichen Debatte zur Corona-Warn-App dar, die mit Blick auf die zugrundeliegende Identifikation, die Solidaritätsgruppe, den solidarischen Beitrag sowie das normative Ziel erhebliche Unterschiede aufweisen. Sie unterstreichen die Notwendigkeit weiterführender Maßstäbe, um ihre Legitimität zu bewerten. Dazu greife ich auf vier normative Kriterien einer kontextsensitiven, moralisch gehaltvollen Solidaritätskonzeption zurück (Solidaritätsoffenheit, gestaltbare Inklusivität, Angemessenheit des solidarischen Beitrags, normative Abhängigkeit) und evaluiere auf dieser Grundlage die vorgestellten Solidaritätsrekurse ethisch.Für alle dargestellten Solidaritätsrekurse lassen sich in der Folge kritische Rückfragen formulieren. Dabei werden einerseits die Potenziale und Limitationen von Solidaritätsrekursen in öffentlichen Debatten deutlich. Andererseits werden Schlussfolgerungen möglich, wann eine Tracing-App tatsächlich als solidarische Technologie zur Pandemiebekämpfung verstanden werden kann.

Open Access
Relevant