1.
High-level expert group on artificial intelligence. (2019). Ethics guidelines for trustworthy AI. Shaping Europe’s digital future.
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Zugegriffen: 4. Aug. 2022.
2.
Panch, T., Szolovits, P., & Atun, R. (2018). Artificial intelligence, machine learning and health systems.
Journal of Global Health, 8(2), 020303.
https://doi.org/10.7189/jogh.08.020303.
CrossrefPubMedPubMedCentral3.
Mainzer, K. (2016).
Künstliche Intelligenz – Wann übernehmen die Maschinen? Berlin/Heidelberg: Springer.
Crossref4.
Sonar, A., & Weber, K. (2022). Künstliche Intelligenz, Medizin, Ethik. Ein Vorwort. In A. Sonar & K. Weber (Hrsg.),
Künstliche Intelligenz und Gesundheit, (S. 7–12). Stuttgart: Franz Steiner Verlag.
https://doi.org/10.25162/9783515129770.
5.
Gahnberg, C. (2021). What rules? Framing the governance of artificial agency.
Policy and Society, 40(2), 194–210.
https://doi.org/10.1080/14494035.2021.1929729.
Crossref6.
Gethmann, C. F., Buxmann, P., & Distelrath, J. (2022).
Künstliche Intelligenz in der Forschung: Neue Möglichkeiten und Herausforderungen für die Wissenschaft. Berlin/Heidelberg: Springer.
Crossref7.
Panch, T., Mattie, H., & Celi, L. A. (2019). The “inconvenient truth” about AI in healthcare.
npj Digital Medicine, 2(1), 1–3.
https://doi.org/10.1038/s41746-019-0155-4.
8.
Benjamens, S., Dhunnoo, P., & Meskó, B. (2020). The state of artificial intelligence-based FDA-approved medical devices and algorithms: An online database.
npj Digital Medicine, 3(1), 1–8.
https://doi.org/10.1038/s41746-020-00324-0.
9.
AI for Radiology. (2022). One year of MDR: 17% of products comply.
https://grand-challenge.org/aiforradiology/blogs/one-year-of-mdr-17-of-products-comply/. Zugegriffen: 9. Aug. 2022.
10.
Vogd, W. (Hrsg.). (2018). Entscheidungsfindung im Krankenhausmanagement: Zwischen gesellschaftlichem Anspruch, ökonomischen Kalkülen und professionellen Rationalitäten. Wiesbaden: Springer Fachmedien.
11.
Shafi, I., Ansari, S., Din, S., Jeon, G., & Paul, A. (2021). Artificial neural networks as clinical decision support systems.
Concurrency and Computation: Practice and Experience, 33(22), e6342.
https://doi.org/10.1002/cpe.6342.
Crossref12.
Topol, E. (2019). High-performance medicine: The convergence of human and artificial intelligence.
Nature Medicine, 25(1), 44–56.
https://doi.org/10.1038/s41591-018-0300-7.
CrossrefPubMed13.
Jie, Z., Zhiying, Z., & Li, L. (2021). A meta-analysis of Watson for Oncology in clinical application.
Scientific Reports, 11(1), 5792.
https://doi.org/10.1038/s41598-021-84973-5.
CrossrefPubMedPubMedCentral14.
Chambers, D., Cantrell, A. J., Johnson, M., Preston, L., Baxter, S. K., Booth, A., et al. (2019). Digital and online symptom checkers and health assessment/triage services for urgent health problems: Systematic review.
British Medical Journal Open, 9(8), e027743.
https://doi.org/10.1136/bmjopen-2018-027743.
15.
Mittelstadt, B., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate.
Big Data & Society, 3(2).
https://doi.org/10.1177/2053951716679679.
16.
Tsamados, A., Aggarwal, N., Cowls, J., Morley, J., Roberts, H., Taddeo, M., et al. (2022). The ethics of algorithms: Key problems and solutions.
AI & SOCIETY, 37(1), 215–230.
https://doi.org/10.1007/s00146-021-01154-8.
Crossref17.
Morley, J., Floridi, L., Kinsey, L., & Elhalal, A. (2019). From What to How: An Initial Review of Publicly Available AI Ethics Tools, Methods and Research to Translate Principles into Practices (SSRN Scholarly Paper No. ID 3830348). Rochester, NY: Social Science Research Network.
https://doi.org/10.2139/ssrn.3830348.
18.
Wiemeyer, J. (2016). Gesundheit – Begriff, Modelle und Interventionen. In J. Wiemeyer (Hrsg.),
Serious Games für die Gesundheit: Anwendung in der Prävention und Rehabilitation im Überblick, (S. 5–12). Wiesbaden: Springer Fachmedien.
https://doi.org/10.1007/978-3-658-15472-1_2.
19.
Dabrock, P. (2012). Befähigungsgerechtigkeit: Ein Grundkonzept konkreter Ethik in fundamentaltheologischer Perspektive. Gütersloh: Gütersloher Verlagshaus.
20.
Dabrock, P. (2016). Gesundheit/Gesundheitspolitik. In J. Hübner (Hrsg.), Evangelisches Soziallexikon (S. 607–612). Stuttgart: Kohlhammer.
21.
Huber, W. (2013).
Ethik: Die Grundfragen unseres Lebens von der Geburt bis zum Tod. München: Beck.
Crossref22.
Coeckelbergh, M. (2015). Good healthcare is in the “How”: The quality of care, the role of machines, and the need for new skills. In S. P. van Rysewyk & M. Pontier (Hrsg.),
Machine Medical Ethics, (S. 33–47). Cham: Springer International Publishing.
https://doi.org/10.1007/978-3-319-08108-3_3.
23.
Ho, C.W.-L., & Caals, K. (2021). A call for an ethics and governance action plan to harness the power of artificial intelligence and digitalization in nephrology.
Seminars in Nephrology, 41(3), 282–293.
https://doi.org/10.1016/j.semnephrol.2021.05.009.
CrossrefPubMed24.
While, A. (2019). Shared decision-making.
British Journal of Community Nursing, 24(5), 250–250.
https://doi.org/10.12968/bjcn.2019.24.5.250.
25.
Dirmaier, J., & Härter, M. (2016). Diagnoseaufklärung, Information und Entscheidung über Behandlungen – Patientenbeteiligung und partizipative Entscheidungsfindung. In J. Jerosch & C. Linke (Hrsg.),
Patientenzentrierte Medizin in Orthopädie und Unfallchirurgie: Lösungen für Patientenorientierung, Qualität und Wirtschaftlichkeit, (S. 15–29). Berlin/Heidelberg: Springer.
https://doi.org/10.1007/978-3-662-48081-6_2.
26.
Driever, E. M., Stiggelbout, A. M., & Brand, P. L. P. (2020). Shared decision making: Physicians’ preferred role, usual role and their perception of its key components.
Patient Education and Counseling, 103(1), 77–82.
https://doi.org/10.1016/j.pec.2019.08.004.
CrossrefPubMed27.
Driever, E. M., Stiggelbout, A. M., & Brand, P. L. P. (2022). Do consultants do what they say they do? Observational study of the extent to which clinicians involve their patients in the decision-making process.
British Medical Journal Open, 12(1), e056471.
https://doi.org/10.1136/bmjopen-2021-056471.
Crossref28.
Taddeo, M., & Floridi, L. (2018). How AI can be a force for good.
Science. 361(6404), 751-752.
https://doi.org/10.1126/science.aat5991.
CrossrefPubMed29.
Nürnberger, S., & Bugiel, S. (2016). Autonome Systeme.
Datenschutz und Datensicherheit - DuD, 40(8), 503–506.
https://doi.org/10.1007/s11623-016-0646-2.
Crossref30.
Braun, M., Hummel, P., Beck, S., & Dabrock, P. (2021). Primer on an ethics of AI-based decision support systems in the clinic.
Journal of Medical Ethics, 47, e3. http://dx.doi.org/10.1136/medethics-2019-105860.
Crossref31.
Beauchamp, T. L., & Childress, J. F. (2019). Principles of biomedical ethics. New York: Oxford University Press.
32.
Zuchowski, M. L., & Zuchowski, L. (2022). Ethische Aspekte von KI-Anwendungen in der Medizin. In M. A. Pfannstiel (Hrsg.),
Künstliche Intelligenz im Gesundheitswesen: Entwicklungen, Beispiele und Perspektiven, (S. 285–310). Wiesbaden: Springer Fachmedien.
https://doi.org/10.1007/978-3-658-33597-7_12.
33.
von Eschenbach, W. J. (2021). Transparency and the Black Box Problem: Why We Do Not Trust AI.
Philosophy & Technology, 34, 1607–1622.
https://doi.org/10.1007/s13347-021-00477-0.
Crossref34.
Böhme, G. (2008). Invasive Technisierung: Technikphilosophie und Technikkritik. Kusterdingen: Die Graue Edition.
35.
World Health Organization. (2021). WHO consultative meeting on science and technology foresight function for global health, 13 July 2021: Report. Geneva: World Health Organization.
https://apps.who.int/iris/handle/10665/346678. Zugegriffen: 15. Jan. 2023.
36.
Dixon-Woods, M., & Pronovost, P. J. (2016). Patient safety and the problem of many hands.
BMJ Quality & Safety, 25(7), 485–488.
https://doi.org/10.1136/bmjqs-2016-005232.
Crossref37.
Tigard, D. W. (2021). There is no techno-responsibility gap.
Philosophy & Technology, 34(3), 589–607.
https://doi.org/10.1007/s13347-020-00414-7.
Crossref38.
The DECIDE-AI Steering Group. (2021). DECIDE-AI: New reporting guidelines to bridge the development-to-implementation gap in clinical artificial intelligence.
Nature Medicine, 27(2), 186–187.
https://doi.org/10.1038/s41591-021-01229-5.
Crossref39.
McGenity, C., & Treanor, D. (2021). Guidelines for clinical trials using artificial intelligence – SPIRIT-AI and CONSORT-AI.
The Journal of Pathology, 253(1), 14–16.
https://doi.org/10.1002/path.5565.
CrossrefPubMed40.
Collins, G. S., Dhiman, P., Navarro, C. L. A., Ma, J., Hooft, L., Reitsma, J. B., et al. (2021). Protocol for development of a reporting guideline (TRIPOD-AI) and risk of bias tool (PROBAST-AI) for diagnostic and prognostic prediction model studies based on artificial intelligence.
British Medical Journal Open, 11(7), e048008.
https://doi.org/10.1136/bmjopen-2020-048008.
Crossref41.
Floridi, L., & Cowls, J. (2019). A Unified Framework of Five Principles for AI in Society.
Harvard Data Science Review, 1(1).
https://doi.org/10.1162/99608f92.8cd550d1.
42.
Steinrötter, B. (2020). Personal Robots in der Pflege. In M. Ebers, C. Heinze, T. Krügel, & B. Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik: Rechtshandbuch, (S. 793–830). München: Beck.
43.
Roller, R., Mayrdorfer, M., Duettmann, W., Naik, M. G., Schmidt, D., Halleck, F., et al. (2022). Evaluation of a clinical decision support system for detection of patients at risk after kidney transplantation.
Frontiers in Public Health, 10.
https://doi.org/10.3389/fpubh.2022.979448.
44.
Samhammer, D., Roller, R., Hummel, P., Osmanodja, B., Burchardt, A., Mayrdorfer, M., et al. (2022). “Nothing works without the doctor:” Physicians’ perception of clinical decision-making and artificial intelligence.
Frontiers in Medicine, 9.
https://doi.org/10.3389/fmed.2022.1016366.
45.
Osmanodja, B., Samhammer, D., Roller, R., Beck, S., Burchardt, A., Duettmann, W., et al. (2023). Influence of AI-based decision support on shared decision making in hemodialysis: A Wizard of Oz experiment (preprint).
Health Informatics.
https://doi.org/10.1101/2023.01.12.23284468.
Crossref46.
Yu, K.-H., Beam, A. L., & Kohane, I. S. (2018). Artificial intelligence in healthcare.
Nature Biomedical Engineering, 2(10), 719–731.
https://doi.org/10.1038/s41551-018-0305-z.
CrossrefPubMed47.
Worf, K., Tränkner, N., & Wilke, M. (2020). Evidenzbasierte Medizin in Deutschland – Zugangssteuerung oder Innovationsbremse für Medizinprodukte? In M. A. Pfannstiel, R. Jaeckel, & P. Da-Cruz (Hrsg.),
Market Access im Gesundheitswesen: Hürden und Zugangswege zur Gesundheitsversorgung, (S. 135–167). Wiesbaden: Springer Fachmedien.
https://doi.org/10.1007/978-3-658-25141-3_8.
48.
Holzinger, A., Kieseberg, P., Weippl, E., & Tjoa, A. M. (2018). Current Advances, Trends and Challenges of Machine Learning and Knowledge Extraction: From Machine Learning to Explainable AI. In A. Holzinger, P. Kieseberg, A. M. Tjoa, & E. Weippl (Hrsg.),
Machine Learning and Knowledge Extraction, (S. 1–8). Cham: Springer International Publishing.
https://doi.org/10.1007/978-3-319-99740-7_1.
49.
Wadden, J. J. (2021). Defining the undefinable: The black box problem in healthcare artificial intelligence.
Journal of Medical Ethics, 48, 764–768.
https://doi.org/10.1136/medethics-2021-107529.
Crossref50.
Gillmann, C., Smit, N. N., Gröller, E., Preim, B., Vilanova, A., & Wischgoll, T. (2021). Ten Open Challenges in Medical Visualization.
IEEE Computer Graphics and Applications, 41(5), 7–15.
https://doi.org/10.1109/MCG.2021.3094858.
CrossrefPubMed51.
Tobia, K., Nielsen, A., & Stremitzer, A. (2021). When Does Physician Use of AI Increase Liability?
Journal of Nuclear Medicine, 62(1), 17–21.
https://doi.org/10.2967/jnumed.120.256032.
CrossrefPubMedPubMedCentral52.
Wenk, H. (2020). Kommunikation in Zeiten künstlicher Intelligenz.
Gefässchirurgie, 25(5), 339–344.
https://doi.org/10.1007/s00772-020-00644-1.
Crossref53.
Kempt, H., & Nagel, S. K. (2021). Responsibility, second opinions and peer-disagreement: Ethical and epistemological challenges of using AI in clinical diagnostic contexts.
Journal of Medical Ethics, 48, 222–229.
https://doi.org/10.1136/medethics-2021-107440.
CrossrefPubMed54.
Fernau, S., Schleidgen, S., Schickhardt, C., Oßa, A.-K., & Winkler, E. C. (2018). Zur Rolle und Verantwortung von Ärzten und Forschern in systemmedizinischen Kontexten: Ergebnisse einer qualitativen Interviewstudie.
Ethik in der Medizin, 30(4), 307–324.
https://doi.org/10.1007/s00481-018-0494-8.
Crossref55.
Santoni de Sio, F., & van den Hoven, J. (2018). Meaningful Human Control over Autonomous Systems: A Philosophical Account.
Frontiers in Robotics and AI, 5, 15.
https://doi.org/10.3389/frobt.2018.00015.
CrossrefPubMedPubMedCentral56.
Horowitz, M., & Scharre, P. (2015). Meaningful Human Control in Weapon Systems: A Primer.
https://www.cnas.org/publications/reports/meaningful-human-control-in-weapon-systems-a-primer. Zugegriffen: 15. Jan. 2023.
57.
van der Waa, J., Verdult, S., van den Bosch, K., van Diggelen, J., Haije, T., van der Stigchel, B., et al. (2021). Moral Decision Making in Human-Agent Teams: Human Control and the Role of Explanations.
Frontiers in Robotics and A, I, 8.
https://doi.org/10.3389/frobt.2021.640647.
Crossref58.
Babushkina, D. (2022). Are we justified attributing a mistake in diagnosis to an AI diagnostic system?
AI and Ethics.
https://doi.org/10.1007/s43681-022-00189-x.
Crossref59.
Holford, W. D. (2022). ‘Design-for-responsible’ algorithmic decision-making systems: A question of ethical judgement and human meaningful control.
AI and Ethics.
https://doi.org/10.1007/s43681-022-00144-w.
Crossref60.
Ficuciello, F., Tamburrini, G., Arezzo, A., Villani, L., & Siciliano, B. (2019). Autonomy in surgical robots and its meaningful human control.
Paladyn, Journal of Behavioral Robotics, 10(1), 30–43.
https://doi.org/10.1515/pjbr-2019-0002.
Crossref61.
Colaner, N. (2022). Is explainable artificial intelligence intrinsically valuable?
AI & SOCIETY, 37(1), 231–238.
https://doi.org/10.1007/s00146-021-01184-2.
Crossref62.
König, P. D. (2022). Challenges in enabling user control over algorithm-based services.
AI & SOCIETY.
https://doi.org/10.1007/s00146-022-01395-1.
Crossref63.
Lam, N. (2022). Explanations in AI as claims of tacit knowledge.
Minds and Machines, 32, 135–158.
https://doi.org/10.1007/s11023-021-09588-1.
Crossref64.
Maclure, J. (2021). AI, explainability and public reason: The argument from the limitations of the human mind.
Minds and Machines, 31(3), 421–438.
https://doi.org/10.1007/s11023-021-09570-x.
Crossref65.
Ratti, E., & Graves, M. (2022). Explainable machine learning practices: Opening another black box for reliable medical AI.
AI and Ethics.
https://doi.org/10.1007/s43681-022-00141-z.
Crossref66.
Miller, T. (2018). Explanation in Artificial Intelligence: Insights from the Social Sciences.
arXiv:1706.07269 [cs].
http://arxiv.org/abs/1706.07269. Zugegriffen: 15. Jan. 2023.
67.
Asghari, H., Birner, N., Burchardt, A., Dicks, D., Faßbender, J., Feldhus, N. et al. (2022). What to explain when explaining is difficult. An interdisciplinary primer on XAI and meaningful information in automated decision-making.
Zenodo.
https://doi.org/10.5281/zenodo.6375784.
68.
Methnani, L., Aler Tubella, A., Dignum, V., & Theodorou, A. (2021). Let me take over: Variable autonomy for meaningful human control.
Frontiers in Artificial Intelligence, 4, 133.
https://doi.org/10.3389/frai.2021.737072.
Crossref69.
Baxter, G., & Sommerville, I. (2011). Socio-technical systems: From design methods to systems engineering.
Interacting with Computers, 23(1), 4–17.
https://doi.org/10.1016/j.intcom.2010.07.003.
Crossref70.
Ackerman, M. S., Goggins, S. P., Herrmann, T., Prilla, M., & Stary, C. (Hrsg.). (2018). Designing healthcare that works: A socio-technical approach. London/San Diego: Academic.
71.
Misselhorn, C. (2022). Grundsätze der Maschinenethik. In A. Krabbe, H. M. Niemann, & T. von Woedtke (Hrsg.), Künstliche Intelligenz: Macht der Maschinen und Algorithmen zwischen Utopie und Realität. Leipzig: Evangelische Verlagsanstalt.
72.
de Sio, F. S., Mecacci, G., Calvert, S., Heikoop, D., Hagenzieker, M., & van Arem, B. (2022). Realising meaningful human control over automated driving systems: A multidisciplinary approach.
Minds and Machines.
https://doi.org/10.1007/s11023-022-09608-8.
CrossrefPubMedPubMedCentral73.
Jarrahi, M. H. (2018). Artificial intelligence and the future of work: Human-AI symbiosis in organizational decision making.
Business Horizons, 61(4), 577–586.
https://doi.org/10.1016/j.bushor.2018.03.007.
Crossref74.
Vasey, B., Nagendran, M., Campbell, B., Clifton, D. A., Collins, G. S., Denaxas, S., et al. (2022). Reporting guideline for the early stage clinical evaluation of decision support systems driven by artificial intelligence: DECIDE-AI.
BMJ, 377, e070904.
https://doi.org/10.1136/bmj-2022-070904.
CrossrefPubMedPubMedCentral75.
Wilhelm, D., Hartwig, R., McLennan, S., Arnold, S., Mildner, P., Feußner, H., et al. (2022). Ethische, legale und soziale Implikationen bei der Anwendung künstliche-Intelligenz-gestützter Technologien in der Chirurgie.
Der Chirurg, 93(3), 223–233.
https://doi.org/10.1007/s00104-022-01574-2.
CrossrefPubMed76.
Sonar, A., & Weber, K. (2022). Zur Ethik medizinischer KI-Unterstützungssysteme in Theorie und Empirie. Ein qualitativer Vergleich der ethischen (und sozialen) Implikationen aus Literatur- und Expert*innenperspektive. In A. Sonar & K. Weber (Hrsg.), Künstliche Intelligenz und Gesundheit, (S.155-205). Stuttgart: Franz Steiner Verlag.
77.
Solanki, P., Grundy, J., & Hussain, W. (2022). Operationalising ethics in artificial intelligence for healthcare: A framework for AI developers.
AI and Ethics.
https://doi.org/10.1007/s43681-022-00195-z.
Crossref78.
Munn, L. (2022). The uselessness of AI ethics.
AI and Ethics.
https://doi.org/10.1007/s43681-022-00209-w.
Crossref79.
Dwork, C., & Minow, M. (2022). Distrust of Artificial Intelligence: Sources & Responses from Computer Science & Law.
Daedalus, 151(2), 309–321.
https://doi.org/10.1162/daed_a_01918.
Crossref80.
Braun, M., Bleher, H., & Hummel, P. (2021). A leap of faith: Is there a formula for “Trustworthy” AI?
Hastings Center Report, 51(3), 17–22.
https://doi.org/10.1002/hast.1207.
CrossrefPubMed81.
Ott, T., & Dabrock, P. (2022). Transparent human – (non-) transparent technology? The Janus-faced call for transparency in AI-based health care technologies.
Frontiers in Genetics, 13.
https://doi.org/10.3389/fgene.2022.902960.
82.
Santoni de Sio, F., & Mecacci, G. (2021). Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them.
Philosophy & Technology, 34(4), 1057–1084.
https://doi.org/10.1007/s13347-021-00450-x.
Crossref83.
Bleher, H., & Braun, M. (2022). Diffused responsibility: Attributions of responsibility in the use of AI-driven clinical decision support systems.
AI and Ethics.
https://doi.org/10.1007/s43681-022-00135-x.
CrossrefPubMedPubMedCentral84.
Mäntymäki, M., Minkkinen, M., Birkstedt, T., & Viljanen, M. (2022). Defining organizational AI governance.
AI and Ethics.
https://doi.org/10.1007/s43681-022-00143-x.
Crossref85.
Beck, S., & Faber, M. (2022). Rechtlicher Rahmen des Einsatzes von KI in der Medizin. In B. Oppermann & P. Buck-Heeb (Hrsg.), Automatisierte Systeme, (S. 267–300). München: Beck.
86.
Stellpflug, T. (2020). KI und smarte Robotik im Kriegseinsatz. In M. Ebers, C. Heinze, T. Krügel, & B. Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik: Rechtshandbuch, (S. 989–1010). München: Beck.
87.
Beck, S. (2017). Digitalisierung und Schuld. In T. Fischer & E. Hoven (Hrsg.), Schuld, (S. 289–302). Baden-Baden: Nomos.
88.
Sharkey, N. (2016). Staying in the loop: Human supervisory control of weapons. In C. Kreβ, H.-Y. Liu, N. Bhuta, R. Geiβ, & S. Beck (Hrsg.),
Autonomous Weapons Systems: Law, Ethics, Policy, (S. 23–38). Cambridge: Cambridge University Press.
https://doi.org/10.1017/CBO9781316597873.002.
89.
Niederée, C., & Nejdl, W. (2020). Technische Grundlagen der KI. In M. Ebers, C. Heinze, T. Krügel, & B. Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik: Ein Rechtshandbuch, (S. 42–81). München: Beck.
90.
Beck, S. (2019). Künstliche Intelligenz – ethische und rechtliche Herausforderungen. In K. Mainzer (Hrsg.), Philosophisches Handbuch Künstliche Intelligenz (S. 1–28). Wiesbaden: Springer Fachmedien.
91.
Beck, S. (2020). Strafrechtliche Implikationen von Recht und Robotik. In M. Ebers, C. Heinze, T. Krügel, & B. Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik: Rechtshandbuch, (S. 243–269). München: Beck.
92.
Europäische Kommission (2022). Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (Richtlinie über KI-Haftung).
https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:52022PC0496. Zugegriffen: 15. Jan. 2023.
93.
Walchshofer, M., & Riedl, R. (2017). Der Chief Digital Officer (CDO): Eine empirische Untersuchung.
HMD Praxis der Wirtschaftsinformatik, 54(3), 324–337.
https://doi.org/10.1365/s40702-017-0320-7.
Crossref94.
Horlacher, A., & Hess, T. (2016). What Does a Chief Digital Officer Do? Managerial Tasks and Roles of a New C-Level Position in the Context of Digital Transformation. In
2016 49th Hawaii International Conference on System Sciences (HICSS), (S. 5126–5135). Gehalten auf der 2016 49th Hawaii International Conference on System Sciences (HICSS).
https://doi.org/10.1109/HICSS.2016.634.
95.
Eichelberger, J. (2022). Arzthaftung. In K. Chibanguza, C. Kuß, & H. Steege (Hrsg.), Künstliche Intelligenz: Recht und Praxis automatisierter und autonomer Systeme, (S. 655–674). Baden-Baden: Nomos.
96.
Lohmann, A., & Schömig, A. (2020). „Digitale Transformation“ im Krankenhaus. Gesellschaftliche und rechtliche Herausforderungen durch das Nebeneinander von Ärzten und Künstlicher Intelligenz. In S. Beck, C. Kusche, B. Valerius, & Forschungsstelle RobotRecht (Hrsg.), Digitalisierung, Automatisierung, KI und Recht: Festgabe zum 10-jährigen Bestehen der Forschungsstelle RobotRecht, (S. 345-364). Baden-Baden: Nomos.
97.
Katzenmeier, C. (2021). KI in der Medizin – Haftungsfragen.
Medizinrecht, 39(10), 859–867.
https://doi.org/10.1007/s00350-021-6001-0.
Crossref98.
Knauer, & Brose. (2018). StGB § 223 Körperverletzung. In Spickhoff (Hrsg.)
Medizinrecht.
https://beck-online.beck.de/Bcid/Y-400-W-SpickhoffKoMedR-G-StGB-P-223. Zugegriffen: 15. Jan. 2023.
99.
Duttge, G. (2020). § 15 StGB Vorsätzliches und fahrlässiges Handeln. In V. Erb & J. Schäfer (Hrsg.), Münchner Kommentar zum StGB: Band 1. München: Beck.
100.
Sander, M., & Hollinger, J. (2017). Strafrechtliche Verantwortlichkeit im Zusammenhang mit automatisiertem Fahren. Neue Zeitschrift für Strafrecht, (4), 193–206.
101.
Conrad, C. S. (2018). Kann die Künstliche Intelligenz den Menschen entschlüsseln? — Neue Forderungen zum Datenschutz.
Datenschutz und Datensicherheit - DuD, 42(9), 541–546.
https://doi.org/10.1007/s11623-018-0996-z.
Crossref102.
Krügel, T., & Pfeiffenbring, J. (2020). Datenschutzrechtliche Herausforderungen von KI. In M. Ebers, C. Heinze, T. Krügel, & B. Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik: Rechtshandbuch, (S. 413–441). München: Beck.
103.
Mantz, R., & Spittka, J. (2020). Datenschutz und IT-Sicherheit. In T. Sassenberg & T. Faber (Hrsg.), Rechtshandbuch Industrie 4.0 und Internet of Things, (S. 197–247). München: Beck.
104.
Holthausen, J. (2021). Big Data, People Analytics, KI und Gestaltung von Betriebsvereinbarungen - Grund-, arbeits- und datenschutzrechtliche AN- und Herausforderungen. Recht der Arbeit, 1, 19–32.
105.
Siems, J., & Repka, T. (2021). Unrechtmäßige Nutzung von KI-Trainingsdaten als Gefahr für neue Geschäftsmodelle? – Compliance-Anforderungen bei der Entwicklung von KI-Systemen. (1), 517–534.
106.
Käde, L., & von Maltzan, S. (2020). Die Erklärbarkeit von Künstlicher Intelligenz (KI): Entmystifizierung der Black Box und Chancen für das Recht.
Computer und Recht, 36(1), 66–72.
https://doi.org/10.9785/cr-2020-360115.
Crossref107.
Budde, K. et al. (2020). KI in der Medizin und Pflege aus der Perspektive Betroffener.
Tagungsbericht zum Runden Tisch mit Patientenvertretungen aus der Plattform Lernende Systeme. https://www.plattform-lernende-systeme.de/publikationsliste.html. Zugegriffen: 15. Jan. 2023.
108.
Droste, W. (2018). Intelligente Medizinprodukte: Verantwortlichkeiten des Herstellers und ärztliche Sorgfaltspflichten. MPR, 4, 109–115.
109.
Prütting, J., & Wolk, T. (2020). Software unter dem Regime der europäischen Medizinprodukteverordnung (2017/745/EU): – Ein massives Innovationshemmnis! –.
Medizinrecht, 38(5), 359–365.
https://doi.org/10.1007/s00350-020-5534-y.
Crossref110.
Europäische Kommission (2021). Erwägungsgründe KI-Verordnung (Vorschlag).
https://lexparency.de/eu/52021PC0206/PRE/. Zugegriffen: 15. Jan. 2023.
111.
Jörg, J. (2018).
Digitalisierung in der Medizin: Wie Gesundheits-Apps, Telemedizin, künstliche Intelligenz und Robotik das Gesundheitswesen revolutionieren. Berlin/Heidelberg: Springer.
https://doi.org/10.1007/978-3-662-57759-2.
Crossref112.
Liang, W., Tadesse, G. A., Ho, D., Fei-Fei, L., Zaharia, M., Zhang, C., et al. (2022). Advances, challenges and opportunities in creating data for trustworthy AI.
Nature Machine Intelligence, 4(8), 669–677.
https://doi.org/10.1038/s42256-022-00516-1.
Crossref113.
Celi, L. A., Fine, B., & Stone, D. J. (2019). An awakening in medicine: The partnership of humanity and intelligent machines.
The Lancet Digital Health, 1(6), e255–e257.
https://doi.org/10.1016/S2589-7500(19)30127-X.
CrossrefPubMedPubMedCentral114.
Quinlan, J. R. (1986). Induction of decision trees.
Machine Learning, 1(1), 81–106.
https://doi.org/10.1007/BF00116251.
Crossref115.
Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B. et al. (2019). Model Cards for Model Reporting. In
Proceedings of the Conference on Fairness, Accountability, and Transparency, (S. 220–229). Gehalten auf der FAT* 19: Conference on Fairness, Accountability, and Transparency, Atlanta GA USA: ACM.
https://doi.org/10.1145/3287560.3287596.
116.
Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Iii, H. D., et al. (2021). Datasheets for datasets.
Communications of the ACM, 64(12), 86–92.
https://doi.org/10.1145/3458723.
Crossref117.
Norori, N., Hu, Q., Aellen, F. M., Faraci, F. D., & Tzovara, A. (2021). Addressing bias in big data and AI for health care: A call for open science.
Patterns, 2(10), 100347.
https://doi.org/10.1016/j.patter.2021.100347.
CrossrefPubMedPubMedCentral118.
Dettling, H.-U. (2019). Künstliche Intelligenz und digitale Unterstützung ärztlicher Entscheidungen in Diagnostik und Therapie. Pharmarecht, 12, 633–642.
119.
OLG Dresden. (2008). Neue Juristische Online-Zeitschrift, 4, 247-255.
120.
Blechschmitt, L. (2017). Die straf- und zivilrechtliche Haftung des Arztes beim Einsatz roboterassestierter Chirurgie. Baden-Baden: Nomos.
121.
Katzenmeier, C. (2006). Aufklärung über neue medizinische Behandlungsmethoden - „Robodoc“. Neue Juristische Wochenschrift, 38, 2738–2741.
122.
Jorzig, A., & Sarangi, F. (2020).
Digitalisierung im Gesundheitswesen: Ein kompakter Streifzug durch Recht, Technik und Ethik. Berlin/Heidelberg: Springer.
Crossref123.
Katzenmeier, C. (2021). Aufklärungspflicht und Einwilligung. In A. Laufs, C. Katzenmeier, & V. Lipp (Hrsg.), Arztrecht, (S. 113–176). München: Beck.
124.
Steinrötter, B. (2020). Datenschutzrechtliche Implikationen beim Einsatz von Pflegerobotern. Zeitschrift für Datenschutz, 7, 336–340.
125.
Hummel, P., Braun, M., Augsberg, S., von Ulmenstein, U., & Dabrock, P. (2021).
Datensouveränität: Governance-Ansätze für den Gesundheitsbereich. Wiesbaden: Springer Fachmedien.
https://doi.org/10.1007/978-3-658-33755-1.
Crossref126.
Dierks, C. (2019). Brauchen wir mehr Patientenvertretung in Deutschland? Analyse und Ausblick.
Bundesgesundheitsblatt - Gesundheitsforschung - Gesundheitsschutz, 62(9), 1113–1119.
https://doi.org/10.1007/s00103-019-02994-y.
CrossrefPubMed127.
Müller-Quade, J. et al. (2020). Sichere KI-Systeme für die Medizin.
https://www.plattform-lernende-systeme.de/publikationsliste.html. Zugegriffen: 15. Jan. 2023.
128.
Eichelberger, J. (2020). Zivilrechtliche Haftung für KI und smarte Robotik. In M. Ebers, C. Heinze, T. Krügel, & B. Steinrötter (Hrsg.), Künstliche Intelligenz und Robotik: Rechtshandbuch, (S. 174–201). München: Beck.
129.
Borges, G. (2018). Rechtliche Rahmenbedingungen für autonome Systeme. Neue Juristische Wochenschrift, 977–982.
130.
Zech, H. (2019). Künstliche Intelligenz und Haftungsfragen. Zeitschrift für gesamte Privatsrechtswissenschaft, 2, 198–219.
131.
Riehm, T. (2020). Nein zur ePerson! Gegen die Anerkennung einer digitalen Rechtspersönlichkeit. Recht Digital, 1, 42–48.
132.
Richter-Kuhlmann, E. (2020). Neue Approbationsordnung 2025. Deutsches Ärzteblatt, 48, 2335.
133.
Mosch, L., Back, A., Balzer, F., Bernd, M., Brandt, J., Erkens, S., et al. (2021). Lernangebote zu Künstlicher Intelligenz in der Medizin.
Zenodo.
https://doi.org/10.5281/ZENODO.5497668.
Crossref134.
Bilski, N., & Schmid, T. (2019). Verantwortungsfindung beim Einsatz maschinell lernender Systeme. Neue juristische Onlinezeitschrift, 20, 657–661.
135.
Denga, M. (2018). Deliktische Haftung für künstliche Intelligenz: Warum die Verschuldenshaftung des BGB auch künftig die bessere Schadensausgleichsordnung bedeutet.
Computer und Recht, 34(2), 69–78.
https://doi.org/10.9785/cr-2018-0203.
Crossref136.
BGH. (1978). Neue Juristische Wochenzeitschrift, 12, 584-585.
137.
Spindler, G. (2015). Roboter, Automation, künstliche Intelligenz, selbst-steuernde Kfz – Braucht das Recht neue Haftungskategorien? Eine kritische Analyse möglicher Haftungsgrundlagen für autonome Steuerungen.
Computer und Recht, 31(12), 766–776.
https://doi.org/10.9785/cr-2015-1205.
Crossref