Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
  • 1
    UID:
    almahu_9949282157202882
    Format: 1 electronic resource (522 p.)
    Edition: 1st ed.
    ISBN: 9783748926368 , 3748926367
    Series Statement: Studien zum deutschen und europäischen Arbeitsrecht Band 95
    Content: Modern human resources management ("people analytics") requires the use of complex algorithms and the evaluation of a vast amount of data. In this context, companies easily get into conflict with the applicable data protection regulations. The author presents the relevant provisions on data, industrial constitution and telecommunications law and uses practical case studies to show which pitfalls must be considered. In this context, he designs legally compliant solutions for the use of automated decisions, Big Data and IoT in companies. A sample works agreement on possible use scenarios is also drafted for the target group of lawyers, works councils and companies.
    Content: Modernes Personalmanagement („People Analytics“) bedarf des Einsatzes komplexer Algorithmen und der Auswertung einer Vielzahl von Daten. Hierbei geraten Unternehmen schnell in den Konflikt mit den geltenden Datenschutzbestimmungen. Der Autor stellt die einschlägigen Vorschriften zum Daten-, Betriebsverfassungs- und Telekommunikationsrecht dar und zeigt anhand konkreter Fallbeispiele auf, welche Fallstricke zu beachten sind. Er entwirft rechtskonforme Lösungen für den Einsatz von automatisierten Entscheidungen, Big Data und IoT im Unternehmen. Für die Zielgruppe der Anwälte, Betriebsräte und Unternehmen wird zudem eine Musterbetriebsvereinbarung zu möglichen Einsatzszenarien entworfen.
    Note: Cover -- A. Einleitung -- 1 Überblick -- 2 Interessenskonflikt im Arbeitsverhältnis -- I. Asymmetrische Informationsverteilung im Arbeitsverhältnis -- 1. Prinzipal-Agenten-Theorie -- 2. Adverse Selection -- 3. Moral Hazard -- II. Die unterschiedlichen Interessen der Parteien -- 1. Das Informationsinteresse des Arbeitgebers -- 2. Das Geheimhaltungsinteresse des Arbeitnehmers -- 3. Technikspezifische Risiken -- III. Datenschutz als Instrument zum Interessensausgleich -- IV. Zwischenergebnis -- B. Die Entwicklung des Personalmanagements -- 1 Ursprünge des Personalmanagements -- 2 Wandel des Personalmanagements über die Zeit -- 3 Neue Chancen und Herausforderungen durch die Digitalisierung -- I. Soziale Medien -- II. Mobile Media -- III. Cloud-Dienste -- IV. „Internet of Things" (IoT) -- C. People Analytics -- 1 Überblick, Einführung -- 2 Verfahren und eingesetzte Techniken bei People Analytics -- I. Überblick -- II. Begriffsbestimmungen -- 1. Big Data -- a) Allgemeine Definition -- b) Die „vier Vs": Volume, Variety, Velocity, Veracity/Value -- aa) Volume -- bb) Variety -- cc) Velocity -- dd) Veracity/Value -- c) Profilbildung durch Big Data und Scoring -- 2. Künstliche Intelligenz -- a) Allgemeine Definition -- b) Automation des Entscheidens -- aa) Das 5-Stufen-Modell zur Automation des Entscheidens -- bb) Veränderungspotential durch KI und Entscheidungsautomatisierung -- III. Reifegrade der Arbeitnehmeranalyse -- 3 Vor- und Nachteile bzw. Gefahren von People Analytics -- I. Sicherere Prognosen / Erkennen bislang unbekannter Zusammenhänge -- II. Nachvollziehbarkeit von Entscheidungen -- III. Diskriminierungsfreie Entscheidungen -- IV. Überwachung der Arbeitnehmer -- V. Datensicherheit -- 4 Mögliche Einsatzszenarien und Werkzeuge von People Analytics -- I. Verringerung der Fluktuationsquote -- II. Stimmungsbarometer. , III. Kommunikationsdiagramme / Netzwerk-Analysen -- IV. Gesundheitsförderung -- V. Selbstkontrolle -- VI. Spiele / Gamification -- D. Rechtliche Rahmenbedingungen -- 1 Datenschutzrecht -- I. Anwendbarkeit des Datenschutzrechts -- 1. Sachlicher Anwendungsbereich (Art. 2 DSGVO) -- a) Personenbezogene Daten -- b) Verarbeitung personenbezogener Daten -- c) Dateisystem -- d) Zwischenergebnis -- 2. Räumlicher Anwendungsbereich (Art. 3 DSGVO) -- 3. Verhältnis zwischen der DSGVO und dem BDSG -- 4. Keine Anwendung bei nicht-personenbezogenen Daten -- a) Begriff der Identifikation -- b) Anonymisierung -- c) Pseudonymisierung -- aa) Risikomindernde Wirkung -- bb) Keine anonymisierende Wirkung der Pseudonymisierung -- (1) Relative Dimension der Identifizierbarkeit -- (2) Kritik -- (3) Lösungsvorschlag von Buchner -- (4) Stellungnahme -- d) Ermöglichende Wirkung und Privilegierungen -- 5. Zwischenergebnis -- II. Legitimationsbedürftigkeit der Datenverarbeitung -- III. Erlaubnistatbestände der DSGVO -- 1. Vorliegen mehrerer Erlaubnistatbestände -- 2. Die Erlaubnistatbestände im Einzelnen -- a) Einwilligung -- aa) Formelle Voraussetzungen -- bb) Materielle Voraussetzungen -- (1) Eindeutig bestätigende Handlung -- (2) Freiwilligkeit -- (3) In informierter Weise -- (4) Für einen oder mehrere bestimmte Zwecke -- b) Erforderlichkeit für die Erfüllung eines Vertrags -- c) Erforderlichkeit für die Erfüllung einer rechtlichen Verpflichtung -- d) Erforderlichkeit zum Schutz lebenswichtiger Interessen -- e) Erforderlichkeit zur Wahrnehmung einer Aufgabe im öffentlichen Interesse -- f) Erforderlichkeit zur Wahrnehmung von berechtigten Interessen des Verantwortlichen oder Dritten -- IV. Beschäftigtendatenschutz -- 1. Öffnungsklausel der DSGVO für nationale Regelungen, Art. 88 DSGVO -- a) Reichweite der Öffnungsklausel. , aa) Regelungen in den Grenzen des Art. 88 Abs. 2 DSGVO möglich -- bb) Keine Abweichung vom Schutzniveau der DSGVO möglich -- cc) Festlegung eines Mindeststandards für den Beschäftigtendatenschutz -- dd) Abweichung nach oben nur in einem bestimmten Rahmen möglich -- b) Stellungnahme -- aa) Wortlaut -- bb) Systematik -- cc) Telos -- dd) Historie -- ee) Primärrechtskonforme Auslegung -- c) Ergebnis -- 2. Nationaler Erlaubnistatbestand für den Beschäftigtendatenschutz: 26 BDSG -- a) Der Begriff des Beschäftigten im Sinne des Datenschutzrechts -- b) Erforderlichkeit der Datenverarbeitung gem. 26 Abs. 1 BDSG -- V. Sonderregelungen -- 1. Sensitive Daten (Art. 9 Abs. 1 DSGVO) -- 2. Erlaubnistatbestand der Kollektivvereinbarung (Art. 88 Abs. 1 Alt. 2 DSGVO) -- 3. Das grundsätzliche Verbot automatisierter Einzelfallentscheidungen (Art. 22 DSGVO) -- a) Gesetzliches Verbot mit Erlaubnisvorbehalt -- b) Kein Verbot von Profiling durch Art. 22 DSGVO -- c) Voraussetzungen des Verbots -- aa) Ausschließlich auf automatisierter Verarbeitung beruhende Entscheidung -- bb) Rechtliche Wirkung oder ähnlich erhebliche Beeinträchtigung -- (1) Rechtliche Wirkung -- (2) Ähnlich erhebliche Beeinträchtigung -- d) Ausnahmen -- aa) Erforderlichkeit -- bb) Unionale bzw. nationale Öffnungsklausel -- cc) Ausdrückliche Einwilligung -- e) Schutzmaßnahmen, Art. 22 Abs. 3 DSGVO -- 4. Art. 35 DSGVO: Pflicht zur Datenschutzfolgenabschätzung (DPIA) bei Profiling -- 2 Betriebsverfassungsrecht -- I. Anwendbarkeit des BetrVG -- II. Mitbestimmungsrechte des Betriebsrats -- 1. Mitbestimmungsrechte aus 87 Abs. 1 BetrVG -- a) 87 Abs. 1 Nr. 1 BetrVG: Mitbestimmung bei Fragen der Ordnung des Betriebs und des Verhaltens der Arbeitnehmer im Betrieb. , b) 87 Abs. 1 Nr. 6 BetrVG: Einführung und Anwendung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen -- aa) Definitionen: Technische Einrichtung / Überwachung -- bb) Reichweite des Mitbestimmungsrechts: Überwachungseignung ausreichend -- cc) Zeitpunkt der Mitbestimmung: Einführung und Anwendung der technischen Einrichtung -- dd) Form der Mitbestimmung -- ee) Grenzen des Mitbestimmungsrechts -- c) 87 Abs. 1 Nr. 10 und 11 BetrVG: Mitbestimmung bei Entlohnung und Entgelten -- 2. Mitbestimmungsrecht aus 94 BetrVG: Personalfragebögen, Beurteilungsgrundsätze -- a) Personalfragebögen -- b) Allgemeine Beurteilungsgrundsätze -- 3. Mitbestimmungsrecht aus 95 BetrVG: Auswahlrichtlinien -- 4. Unterrichtungs- und Beratungspflicht bei Maßnahmen der Personalplanung, 92 Abs. 1 BetrVG -- 5. Unterrichtungs- und Beratungspflicht bei der Planung von technischen Anlagen, 90 BetrVG -- 6. Unterrichtungs- und Beratungspflicht bei Betriebsänderungen nach 111 BetrVG -- a) Der Tatbestand des 111 S. 3 Nr. 4 BetrVG -- b) Einführung grundlegend neuer Arbeitsmethoden ( 111 S. 3 Nr. 5 BetrVG)? -- III. Verpflichtung zum Schutz und zur Förderung des Persönlichkeitsrechts der Arbeitnehmer aus 75 Abs. 2 BetrVG -- IV. Allgemeine Unterrichtungspflicht / Auskunftsbegehren des Betriebsrats, 80 Abs. 2 BetrVG -- V. Zwischenergebnis -- 3 Telekommunikationsrecht / Medienrecht -- I. Fernmeldegeheimnis, 88 Abs. 2 TKG -- 1. Grundlagen / rein dienstliche Nutzung -- 2. Private Nutzung der Telekommunikationsdienste des Arbeitgebers erlaubt -- a) Meinungsstand -- b) Stellungnahme / Lösungsansatz -- aa) Nutzung des dienstlichen E-Mail-Postfachs für private Zwecke -- bb) Nutzung des Internetzugangs des Arbeitgebers für private Zwecke -- (1) Getrennte Netzwerke bzw. gesondertes Netzwerk. , (2) Betriebliches Netzwerk / einheitliches Netzwerk -- cc) Nutzung des dienstlichen Telefons für private Zwecke -- 3. Zwischenergebnis -- II. Schutz der Kommunikation durch das TMG -- 4 Zwischenergebnis -- E. Bewertung von People Analytics-Einsatzszenarien -- 1 People Analytics als Grundlage bzw. Unterstützung für Personalentscheidungen -- I. Grundsatz der Zweckbindung von personenbezogenen Daten -- 1. Spezifität der Zweckbestimmung nach Art. 5 Abs. 1 lit. b DSGVO -- a) Zweckbestimmung im Rahmen der Einwilligung / einer Kollektivvereinbarung -- b) 26 BDSG: Verarbeitung zum Zwecke des Beschäftigungsverhältnisses -- aa) Erforderlichkeit für die Entscheidung über die Begründung des Beschäftigungsverhältnisses -- bb) Erforderlichkeit für die Durchführung des Beschäftigungsverhältnisses -- cc) Erforderlichkeit für die Beendigung des Beschäftigungsverhältnisses -- dd) Zwischenergebnis -- 2. Vereinbarkeit des weitergehenden Verarbeitungszwecks mit dem ursprünglichen Zweck (Art. 6 Abs. 4 DSGVO) -- a) Notwendigkeit einer Rechtsgrundlage für die Weiterverarbeitung -- b) Grundlegendes -- c) Vermutung der Zweckvereinbarkeit für (anonymisierte) People-Analytics -- d) Kriterien des Kompatibilitätstests -- aa) Verbindung zwischen den Zwecken der Erhebung und der Weiterverarbeitung (lit. a) -- bb) Zusammenhang, in welchem die Daten erhoben wurden (lit. b) -- cc) Art der personenbezogenen Daten (lit. c) -- dd) Möglichen Folgen der beabsichtigten Weiterverarbeitung für die betroffenen Personen (lit. d) -- ee) Vorhandensein geeigneter Garantien (lit. e) -- 3. 24 BDSG: Nationale Regelung zur Zweckänderung -- 4. Zwischenergebnis -- II. People Analytics als Profiling im Sinne von Art. 4 Nr. 4 DSGVO -- 1. Grundlagen -- 2. Die zwei bzw. drei Stufen des Profilings -- 3. Notwendige Unterscheidung: Profilbildung vs. Profiling. , a) Automatisierte Verarbeitung erforderlich. , German
    Additional Edition: ISBN 9783848782147
    Additional Edition: ISBN 3848782146
    Language: German
    Subjects: Law
    RVK:
    RVK:
    RVK:
    RVK:
    Keywords: Hochschulschrift
    URL: Volltext  (kostenfrei)
    URL: Volltext  (kostenfrei)
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 2
    UID:
    almahu_9948620816502882
    Format: 1 electronic resource (373 p.)
    Edition: 1st ed.
    ISBN: 9783748909699 , 3748909691
    Series Statement: Bild und Recht. Studien zur Regulierung des Visuellen ; Bd. 7
    Content: Der Schutzgegenstand personenbezogener Daten gemäß Art. 4 Nr. 1 DS-GVO wird auf den Schutz der kontext-spezifischen personalen Identitäten erweitert. In Anbetracht der gleichzeitigen Realisierung etwa der kulturellen, wirtschaftlichen und sozialen Identität bedarf es eines spiegelbildlichen Identitätsschutzes aus dem offline-Kontext für den online-Kontext. Dies verlangt die spieltheoretisch begründete Verhandlungsfähigkeit der Bilder personaler Identitäten, damit sich der Selbstdatenschutz mit einem Mediationsagenten wirksam ausüben lässt. Demnach sollte ein iteratives „identity management by design“ zur technischen Gestaltungsanforderung werden, um dem Prinzip einer verhandlungsfähigen personalen Identität im Online-Kontext gerecht zu werden.
    Note: "Zugl.: Freiburg i. Br., Univ., Diss., 2020"--back of title page. , Cover -- 1.Teil: Einleitung -- A. Motivation -- B. Phänomene im online-Kontext -- C. Untersuchungsgegenstand -- I. Selbstdatenschutz durch Identitätsverwaltung -- II. Begriff der Identität -- 1. Identität im Recht -- 2. Identität aus der philosophischen Perspektive -- a) Identität von der Ununterscheidbarkeit zum Handlungsergebnis -- b) Identität nach Ricœur -- III. Begründung einer regulierten mediativen Identitätsverwaltung -- D. Gang der Untersuchung -- 2.Teil: Grundlagen der Identitätsverwaltung -- A. Personale Identität in den Grundrechten -- I. Personale Identität in der Europäischen Grundrechtecharta -- 1. Schutz personenbezogener Daten, Art. 8 GRC -- a) Personale Identität in der Schutzfunktion des Art. 8 Abs. 1 GRC -- b) Personale Identität in der Ausgestaltungsdimension des Art. 8 Abs. 2 GRC -- 2. Kombinationsgrundrecht aus Art. 7, 8 GRC -- a) Personale Identität als Schutzgegenstand des Privatlebens, Art. 7 GRC -- b) Personale Identität in der Abwehrfunktion -- 3. Drittwirkung aus Art. 7, 8 GRC -- 4. Zusammenfassung -- II. Personale Identität im Grundgesetz -- 1. Personale Identität im allgemeinen Persönlichkeitsrecht, Art. 2 Abs. 1 GG -- a) Recht auf Selbstbestimmung -- b) Recht auf Selbstbewahrung -- c) Recht auf Selbstdarstellung -- aa) Recht auf Neubeginn -- bb) Recht auf informationelle Selbstbestimmung -- cc) Recht am eigenen Bild -- d) Zusammenfassung -- 2. Personale Identität in der allgemeinen Handlungsfreiheit, Art. 2 Abs. 1 GG -- 3. Mittelbare Drittwirkung -- 4. Bewertung -- III. Personale Identität im amerikanischen Recht -- IV. Ergebnis -- B. Personale Identität aus fachübergreifenden Perspektiven -- I. Informationstechnische Perspektive -- II. Sozialpsychologische Perspektive -- 1. Personale Identität im offline-Kontext -- 2. Personale Identität im online-Kontext -- III. Kommunikationspsychologische Perspektive. , IV. Zusammenfassung -- C. Ergebnis: Statische und dynamische personale Identitäten -- 3.Teil: Anforderungen an die Identitätsverwaltung -- A. Personale Identität in einfachrechtlichen Typologien -- I. Personale Identität als Name -- II. Personale Identität im elektronischen Rechtsverkehr -- 1. Qualifizierte elektronische Signatur, 11, 12 VDG -- 2. Gestufte sichere Identifizierung, Art. 8 eIDAS-VO -- 3. Vertrauliche sichere Kommunikation, 1 De-Mail-G -- 4. Bewertung -- III. Zusammenfassung -- B. Erkenntnismodell -- I. Daten-Informationen-Wissen -- II. Datenzyklus -- 1. Datenzyklus als Kommunikation -- 2. Datenzyklus als Metakommunikation -- III. Übertragung auf das Identitätsverwaltungsmodell -- IV. Zwischenergebnis -- C. Kontrolle personaler Identitäten -- I. Einführung -- II. Absolute Kontrolle -- 1. Eigentumsrecht an Daten? -- 2. Zugang als absolute Kontrolle -- 3. Zwischenergebnis -- III. Relative Kontrolle -- IV. Kontroll-Paradoxon -- V. Übertragung auf das Identitätsverwaltungsmodell -- VI. Zwischenergebnis -- D. Agenten personaler Identitäten -- E. Ergebnis: Kontrollierbare Erkenntnisse zur personalen Identität -- 4.Teil: Begründung der Identitätsverwaltung im IKT-Recht -- A. Identitätsverwaltung in der Datenschutzgrundverordnung -- I. Personale Identität in der Datenschutzgrundverordnung -- 1. Personale Identität aus personenbezogenen Daten, Art. 4 Nr. 1 DSGVO -- 2. Personale Teilidentität aus Profilen, Art. 4 Nr. 4 DSGVO -- 3. Personale Teilidentität aus Pseudonymen, Art. 4 Nr. 5 DSGVO -- 4. Zwischenergebnis -- II. Kontextuelle personale Identitäten -- 1. Kontexte in der Datenschutzgrundverordnung -- a) Persönliche oder familiäre Tätigkeiten, Art. 2 Abs. 2 c) DSGVO -- b) Beschäftigungskontext, Art. 88 DSGVO i.V.m. 26 BDSG -- 2. Kontextübergreifende Datenverarbeitung -- 3. Kontextuelle Integrität. , 4. Übertragung auf das Identitätsverwaltungsmodell -- 5. Zwischenergebnis -- III. Stipulatives Identitätsverwaltungsmodell -- 1. Definitionen zur personalen Identität -- 2. Definitionen zur Identitätsverwaltung -- B. Ex ante Rechtfertigung personaler Identitäten in der DSGVO -- I. Bestimmung personenbezogener Daten -- 1. Risiko der Identifizierbarkeit -- 2. Risiko der Erkenntnisse aus personenbezogenen Daten -- 3. Ergebnis -- II. Transparenz zur Identitätsverwaltung, Art. 5 Abs. 1 a) DSGVO -- 1. Informationen als Entscheidungsgrundlage -- 2. Informationen über das Risiko -- a) Risikobewertung durch den Verantwortlichen -- aa) Methode zur Risikobewertung -- bb) Risikokriterien nach Art. 35 DSGVO als Bewertungsgrundlage -- b) Risikoinformationen an den Betroffenen -- c) Bewertung -- 3. Kontrolle durch Transparenz -- 4. Bewertung -- III. Konkretisierte Datenschutzgrundsätze für die Identitätsverwaltung, Art. 5 Abs. 1 b) - f) DSGVO -- 1. Zweckgebundene Identitätsverwaltung, Art. 5 Abs. 1 b) DSGVO -- 2. Datenminimierte Identitätsverwaltung, Art. 5 Abs. 1 c) DSGVO -- 3. Datensicherheit in der Identitätsverwaltung, Art. 5 Abs. 1 d), f), Art. 32 DSGVO -- 4. Identitätsverwaltung durch Technikgestaltung, Art. 25 DSGVO -- 5. Zusammenfassung -- IV. Ergebnis -- C. Rechtfertigung der personalen Identität, Art. 6 DSGVO -- I. Identitätsverwaltung unter Erlaubnisvorbehalt -- II. Identitätsverwaltung durch Einwilligung, Art. 6 Abs. 1 a), 7 DSGVO -- 1. Informierte freiwillige Einwilligung, Art. 7 DSGVO -- a) Motivation -- b) Endogene Faktoren der Entscheidungsfindung -- aa) „Rational Choice"-Ansatz -- bb) „Prospect Theory"- Neue Erwartungstheorie -- cc) Bewertung -- c) Exogene Faktoren der Entscheidungsfindung -- aa) Koppelungstatbestand, Art. 7 Abs. 4 DSGVO -- bb) Netzwerkeffekte und Algorithmen -- cc) Zwischenergebnis -- d) „Privacy Paradox"?. , e) Übertragung auf die Identitätsverwaltung -- f) Zwischenergebnis -- 2. AGB-Recht und Einwilligung -- 3. Prozeduralisierte Einwilligung -- 4. Paternalistische Intervention? -- 5. Ergebnis -- III. Identitätsverwaltung ohne aktive Handlung des Betroffenen, Art. 6 Abs. 1 b) - f) DSGVO -- IV. Zusammenfassung -- D. Ex post Rechtfertigung personaler Identitäten in der DSGVO -- I. Auskunft als Zugangsrecht für die Identitätsverwaltung, Art. 15 DSGVO -- II. Löschungsrecht zur Identitätsverwaltung, Art. 17 DSGVO -- 1. Kontrolle mit dem Recht auf Löschung, Art. 17 Abs. 1, Alt. 1 DSGVO -- 2. Löschpflichten durch den Verantwortlichen, Art. 17 Abs. 1, Alt. 2, Abs. 2 DSGVO -- 3. Kontrolle durch Informationsverjährung -- 4. Bewertung -- III. Datenübertragbarkeit zur Identitätsverwaltung, Art. 20 DSGVO -- 1. Kontrolle mit dem Recht auf Datenübertragbarkeit -- 2. Datenübertragung durch den Verantwortlichen -- 3. Datenübertragbarkeit als Grundlage der Identitätsverwaltung -- 4. Ergebnis -- IV. Kontrolle gegen automatisierte Entscheidungen, Art. 22 Abs. 2 DSGVO -- V. Transparente Datenschutzverstöße als Bestandteil der Identitätsverwaltung, Art. 33 DSGVO -- VI. Kontrolle durch gerichtlichen Rechtsbehelf, Art. 79 DSGVO -- VII. Zusammenfassung -- E. Identitätsverwaltung im Telemedien- und Telekommunikationsgesetz -- I. Identitätsverwaltung im Telemediengesetz -- 1. Personale Teilidentitäten im Telemedienrecht -- a) Personale Teilidentität durch Bestandsdaten, 14 Abs. 1 TMG -- b) Personale Teilidentität durch Nutzungsdaten, 15 Abs. 1 TMG -- c) Personale Teilidentität durch Nutzungsprofil, 15 Abs. 3 TMG -- d) Personale Teilidentität durch Cookies -- 2. Kontrolle durch den Nutzer im Datenzyklus -- 3. Identitätsverwaltung durch den Dienstanbieter -- 4. Ausblick -- II. Identitätsverwaltung im Telekommunikationsgesetz. , 1. Personale Teilidentitäten im Telekommunikationsrecht -- a) Personale Teilidentität durch Bestandsdaten, 95, 3 Nr. 3 TKG -- b) Personale Teilidentität durch Verkehrsdaten, 96, 3 Nr. 30 TKG -- c) Personale Teilidentität durch Standortdaten, 98, 3 Nr. 19 TKG -- 2. Kontrolle durch den Teilnehmer im Datenzyklus -- 3. Identitätsverwaltung durch den Anbieter -- 4. Ausblick -- III. Zusammenfassung -- F. Ergebnis: Identitätsverwaltung im IKT-Recht -- 5.Teil: Spieltheoretische Modellierung des IKT-Rechts -- A. Persönliche Informationen als öffentliches Gut -- B. Spieltheoretisches Modell im IKT-Recht -- I. Annahmen zur spieltheoretischen Modellierung -- 1. Informationsasymmetrien -- 2. Rationale Strategieentscheidung -- 3. Konflikt und Eskalationsstufe -- 4. Zusammenfassung -- II. Gefangenendilemma im IKT-Recht -- 1. Einführung -- 2. Strategiewahl durch den Betroffenen im IKT-Recht -- a) Kooperation über die personale Identität -- b) Defektion über die personale Identität -- 3. Strategiewahl durch den Verantwortlichen im IKT-Recht -- a) Kooperation über die personale Identität -- b) Defektion über die personale Identität -- 4. Bewertung -- III. Verhandlung im IKT-Recht -- 1. Einführung -- 2. Förderung der Kooperation -- a) Steigerung der Iterationen -- b) Kooperationsförderung mit der „TIT for TAT"-Strategie -- c) Bilder personaler Identitäten als Kooperationsgegenstand -- 3. Bewertung -- IV. Rechtliche Interventionsmechanismen -- 1. Einführung -- 2. Intervention in die Informationsasymmtrie -- a) Datenschutzrechtlicher „Market for Lemons" -- b) Erweiterte Transparenz -- 3. Intervention durch das Wettbewerbsrecht -- 4. Intervention durch Verfahren -- 5. Bewertung -- V. Ergebnis -- C. Mediationsagent als Lösungsmodell -- I. Mediation im IKT-Recht -- II. Verhandlung mit Mediation -- 1. Mediationsverfahren -- a) Verfahrensprinzipien, 1 MedG. , aa) Vertraulichkeit, 1 Abs. 1, 4 MedG. , Allemand , German[ger]
    Language: German
    Subjects: Law
    RVK:
    Keywords: Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 3
    UID:
    almafu_9958354158202883
    Format: 1 online resource(xiii,815p.) : , illustrations.
    Edition: Electronic reproduction. Berlin : De Gruyter, 2014. Mode of access: World Wide Web.
    Edition: System requirements: Web browser.
    Edition: Access may be restricted to users at subscribing institutions.
    ISBN: 9783110317794
    Content: The concept of conscience has come under siege during the last few decades as a result of structural changes in the health care system. Starting with the pluralization of values in modern societies, a new debate has been launched about the place of conscientious objection in providing medical services. The volume approaches this problem from an interdisciplinary perspective and elucidates the diverse dimensions of decisions of conscience.
    Note: Frontmatter -- , Vorwort -- , Inhalt -- , Zwischen personal beliefs und professional duties: Weltanschaulich-religiöser Pluralismus als neue Herausforderung für das ärztliche Gewissen / , Das ärztliche Gewissen in der Medizinethik: seine herausforderungen heute / , Urteilskraft und Gewissen: die ärztliche Entscheidung im Zeitalter der evidence-based medicine / , Helfen nach Betriebsvorschriften und Algorithmen? Von der Abwertung ärztlicher Ermessensspielräume in einer ökonomisierten Medizin / , Die Gewissensfreiheit der Gesundheitsberufe aus verfassungsrechtlicher Sicht / , Gewissens- und religionsfreiheitlich fundierte Profilierung kirchlicher Gesundheitseinrichtungen? / , Entwicklungspsychologischer Blick auf reife Urteilsfähigkeit und Gewissensentscheidungen / , Theoretische überlegungen zu einer Soziologie des Gewissens und empirische Beispiele aus dem Bereich der Medizin / , Das platonisch-aristotelische Erbe: Der Begriff der Technê und die Tugenden der Phronesis und der Epikie / , Der Beitrag der Stoa zur Bildung des philosophischen Gewissensbegriffs / , Gewissen bei Augustinus / , Die thomanische Deutung des Gewissens / , Zur Urteilskraft in Kants Ethik als Grundlage ärztlicher Entscheidungen / , Vernunft, Herz und Gewissen. Kants Theorie der Urteilskraft zweiter Stufe als Modell für die Medizinische Ethik / , Zur Bedeutung der sogenannten Pflichten gegen sich selbst für die Gewissensentscheidung von Ärzten und Patienten / , Moralische Dilemmata und hard cases / , Gewissensentscheidung im Kontext von Prinzipienethik und Kasuistik / , Implikationen der traditionellen Mitwirkungslehre für die Gewissensentscheidung / , Das Gewissen und seine Bedeutung für die medizinethische Urteilsbildung aus evangelischer Sicht* / , Gewissensentscheidung in der Medizinethik aus katholischer Sicht / , Gewissenskonflikte von ärzten in genetischer Beratung und Pränataldiagnostik / , Gewissensentscheidungen von Betroffenen im Kontext der Pränataldiagnostik / , Entscheidungen am Lebensanfang / , Die Aufklärung von Patienten über eine schwerwiegende Erkrankung / , Gewissensentscheidungen im Umgang mit Erkrankungsrisiken: medizinische, ethische und sozialrechtliche Aspekte / , Zur Bedeutung der ärztlichen Gewissensentscheidung bei der Allokation knapper Güter / , Geriatrie im Horizont des vierten Gebots / , Gewissensentscheidungen im Umgang mit Wachkoma-Patienten / , Tötungswünsche und Beihilfe zur Selbsttötung – überlegungen aus der Sicht der Krankenseelsorge / , Gewissensentscheidungen am Lebensende / , Zumutbare entscheidung oder entschiedene zumutung? postmortale organentnahme bei nicht entscheidungsfähigen Kindern / , Das gewissen in der Medizin – Kulturgeschichte und ärztliche Moral / , Das Gewissen im Kontext des modernen Arztrechts / , Zwischen Medizin, ökonomie und Qualitätskontrolle: Hat das Gewissen – noch – einen ort in der Pflege? / , Gesundheit, Prävention und christliches Ethos: Gewissensbasierte Eigenverantwortung im Rahmen der Gesundheitsvorsorge / , Die Patientenverfügung und das Recht auf Selbstbestimmung – eine Herausforderung an das Gewissen von ärzten und Pflegepersonal / , Die Bedeutung der Spiritualität bei Gewissensentscheidungen: Ein Plädoyer der Klinikseelsorge / , Gewissensentscheidungen im interdisziplinären Feld von Spiritual Care / , Kirchliche Einrichtungen und persönliches Gewissen. Systemische und ethische überlegungen am Beispiel kirchlicher Krankenhäuser / , Die „Gewissensentscheidung" katholischer Gesundheitseinrichtungen angesichts eines allgemeinen Versorgungsauftrags: eine rechtsethische Analyse* / , Die Vorgaben des kanonischen Rechts für die Gewissensentscheidung von Mitarbeitern in kirchlich getragenen (Gesundheits-)Einrichtungen / , Die moralische Verantwortung der konfessionellen Träger / , Moralische Profilierungsprozesse konfessioneller Einrichtungen. Erfahrungen der Vinzenz Gruppe -- , Abkürzungsverzeichnis -- , Literaturverzeichnis -- , Namensverzeichnis -- , Autorenverzeichnis. , Also available in print edition. , In German
    Additional Edition: ISBN 9783110317701
    Additional Edition: ISBN 9783110317800
    Language: German
    Subjects: Theology , Philosophy
    RVK:
    RVK:
    RVK:
    RVK:
    Keywords: Aufsatzsammlung ; Aufsatzsammlung ; Festschrift
    URL: Cover
    URL: Volltext  (lizenzpflichtig)
    URL: Cover
    URL: Cover
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 4
    UID:
    b3kat_BV047695319
    Format: 1 online resource (388 pages)
    Edition: 1st ed
    ISBN: 9783748923220
    Series Statement: Robotik und Recht v.22
    Note: Description based on publisher supplied metadata and other sources , Cover -- Einleitung -- Teil 1: Intelligente Systeme, Autonomie und Künstliche Intelligenz -- Kapitel 1: Die historische Genese -- A. Die ersten mechanischen Ansätze -- B. Gegenwärtige Einsatzbereiche -- Kapitel 2: Kulturgeschichtlicher Hintergrund -- A. Roboter als Begleiter des Menschen -- B. Übertragbarkeit juristischen Vokabulars auf Maschinen -- C. Roboterrisiken -- Kapitel 3: Kategorisierung von Systemen -- A. Unterscheidung System - Maschine - Roboter - Agenten -- I. Agenten -- II. Maschinen und Roboter -- III. Systeme -- IV. Zusammenfassung -- B. "Intelligenzstufen" von Systemen -- I. Automatisierte Systeme -- II. Autonome Systeme -- 1. Der Begriff der Autonomie -- 2. Die verschiedenen Autonomiegrade -- Kapitel 4: Künstliche Intelligenz -- A. Entstehungsgeschichte -- B. Begriffsbestimmung -- I. Intelligenz - ein wandelnder Prozess -- 1. Natürliche Intelligenz -- a) Der Ansatz von Thorndike -- b) Übertragbarkeit des Ansatzes auf KI-Systeme -- c) Die Abstraktheit menschlicher Intelligenz -- 2. Wann ist eine Maschine intelligent? -- a) Anknüpfung an die Fehleranfälligkeit -- b) Der Turing-Test -- c) Zwischenfazit zur Maschinenintelligenz -- 3. Der Zusammenhang zwischen natürlicher und maschineller Intelligenz -- II. Von "Menschlich" zu "Künstlich" -- C. Arten Künstlicher Intelligenz -- D. Begriffsverständnis der Künstlichen Intelligenz -- E. Weitere Anwendungsbereiche Künstlicher Intelligenz -- I. Machine Learning -- 1. Nicht überwachtes Lernen -- 2. Überwachtes Lernen -- 3. Reinforcement Learning -- II. Deep Learning -- F. KI als Dreh- und Angelpunkt -- Teil 2: Ethik und Robotik -- Kapitel 1: Ethik und Moral - allgemeine Begriffsbestimmungen -- Kapitel 2: Ethische Gesichtspunkte beim Einsatz von intelligenten Systemen -- A. Die verschiedenen Arten von Ethik -- I. Deskriptive Ethik -- II. Normative Ethik -- 1. Deontologische Ethik , 2. Konsequentialistische Ethik -- III. Metaethik -- B. Maschinenethik -- C. Die Moralfähigkeit als zentrale Voraussetzung für ethisches Handeln -- I. Generelle Anforderungen an die moralische Verantwortungsfähigkeit -- 1. Intentionalität dritter Stufe -- 2. Sprachfähigkeit -- 3. Selbstbewusstsein -- II. Der freie Wille als Grundstein moralischen Handelns -- III. Moralische Akteure -- 1. Lebewesen -- 2. Unternehmen -- 3. Intelligente Systeme -- a) Intentionalität dritter Stufe und ein freier Wille -- b) Sprachfähigkeit -- c) Selbstbewusstsein -- d) Keine Moralfähigkeit von Systemen -- IV. Konsequenzen fehlender Moralfähigkeit -- 1. Keine moralischen Rechte und Pflichten für Systeme -- 2. Kein zulässiger Vergleich mit der Moralfähigkeit von Tieren -- 3. Zusammenspiel von moralischer und rechtlicher Verantwortung -- 4. Resümee zur Moralfähigkeit von Systemen -- V. Ethisches Handeln der Systeme -- D. Die Programmierung moralischer Richtlinien -- I. Grundsätzliche Programmierbarkeit -- II. Zugrundeliegender Standard -- 1. Die menschliche Moral als Grundstein des Maschinenhandelns -- 2. Eigene Maschinenleitlinien -- 3. Kombinierter Lösungsvorschlag -- III. Probleme der Programmierung -- IV. Konsequenzen bei einem Verstoß -- 1. Verstoß gegen die Moral -- 2. Konsequenzen des Verstoßes -- Kapitel 3: Invented for Life unter dem Gesichtspunkt der KI -- A. Die Bedeutung eines Unternehmensslogans -- I. Allgemeine Unternehmensphilosophie -- II. Bedeutung des Slogans "Invented for Life" -- 1. Wortlautbedeutung -- 2. Verantwortungsbereiche -- 3. Bedeutungsumfang -- B. Vereinbarkeit des Slogans mit dem Einsatz von KI -- I. Festlegung eines Beurteilungsmaßstabs -- II. Überlegungen zur Vereinbarkeit -- C. Ergebnis -- Teil 3: Der Verantwortungsbegriff in Ethik und Recht -- Kapitel 1: Die Verantwortung in der Ethik -- A. Verantwortung als dreistellige Relation , I. Voraussetzungen der Verantwortungszuschreibung -- 1. Wer ist verantwortlich? -- 2. Wofür ist er oder sie verantwortlich? -- 3. Wem gegenüber besteht die Verantwortung? -- II. Folgen moralischer Verantwortung -- B. Moralische Verantwortungsfähigkeit -- Kapitel 2: Der Verantwortungsbegriff im Recht -- A. Verantwortung als allgemeiner Zuschreibungsvorgang -- B. Voraussetzungen der Verantwortungszuschreibung im materiell-rechtlichen Sinne -- I. Zurechnungsfähigkeit -- II. Handlungsfreiheit -- III. Bewusstsein des Fehlverhaltens -- IV. Kausalität -- C. Die Person als Zurechnungsobjekt -- D. Die Rechtsfähigkeit als Dreh- und Angelpunkt -- Kapitel 3: Verantwortungsfragen in den verschiedenen Rechtsgebieten -- A. Anwendungsfälle im Zivilrecht -- I. Verschuldens- und Gefährdungshaftung -- II. Haftungsvermögen -- III. Unabhängige Verantwortung -- B. Verantwortung im Strafrecht -- C. Anwendungsbereich im Öffentlichen Recht -- Kapitel 4: Die Verantwortung eines Systems -- A. Moralische Verantwortung der KI-Systeme -- B. Moralische Verantwortung für KI-Systeme -- C. Rechtliche Verantwortung -- I. Subsumtion unter die Voraussetzungen der rechtlichen Verantwortung -- 1. Zurechnungsfähigkeit -- 2. Handlungsfreiheit -- 3. Bewusstsein des Fehlverhaltens -- 4. Kausalität -- 5. Zwischenergebnis -- II. Rechtsfähigkeit von Systemen -- 1. Kraft Natur der Sache -- 2. Mittels Analogie -- a) Planwidrige Regelungslücke -- b) Vergleichbarkeit der Interessenlagen -- c) Analogie zu anderen Vorschriften -- d) Zwischenergebnis -- 3. Stand de lege lata -- III. Ergebnis zur rechtlichen Verantwortung -- D. Keine Verantwortungsfähigkeit -- Teil 4: Sorgfaltsanforderungen an den Hersteller von KI-Systemen -- Kapitel 1: Begriffsbestimmung und Hintergrund -- A. Relevanz der Sorgfalt im Haftungskontext -- B. Begriff und Umfang der Sorgfalt -- I. Der Begriff der Sorgfalt , II. Umfang und Maßstab der zivilrechtlichen Sorgfalt -- C. Zwischenergebnis -- Kapitel 2: Human oversight -- A. Human-in-the-loop -- B. Human-on-the-loop -- C. Human-in-command -- Kapitel 3: Einflussfaktoren auf den Sorgfaltsmaßstab des Herstellers -- A. Faktoren des Sorgfaltsmaßstabs -- I. Überwachungsmöglichkeit des Anwenders -- 1. Allgemeine Überwachungsfähigkeit -- 2. Divergenz des Sorgfaltsmaßstabs bei human oversight-Formen -- 3. Zwischenergebnis -- II. Übersteuerungsmöglichkeit des Anwenders -- III. Einsatzbereich und Adressatenkreis des Produkts -- 1. Grundlegende Erwägungen -- 2. Spezifika beim Einsatz von KI -- 3. Zwischenergebnis -- IV. Stand von Wissenschaft und Technik -- 1. Grundsätze -- 2. Entwicklung von KI-Systemen -- V. Betroffene Rechtsgüter -- VI. Schädigungspotential, Schadenswahrscheinlichkeit und Schadenshöhe -- VII. Ergebnis zu den variierenden Sorgfaltspflichten -- B. Besonderheiten bei KI-Systemen -- I. Unberechenbarkeit -- II. Mangelnde Beherrschbarkeit -- III. Eingeschränkte Nachvollziehbarkeit -- IV. Einfluss der human oversight auf die Sorgfaltsanforderungen des Herstellers -- 1. HITL -- 2. HOTL -- 3. HIC -- 4. Zusammenfassend zur human oversight -- C. Besondere Sorgfaltspflichten des Herstellers bei KI-Systemen -- Kapitel 4: Sorgfaltspflichten des Warenherstellers -- A. Spezielle Pflichten des Herstellers -- I. Die Zäsur des Inverkehrbringens -- II. Pflichten bis zum Inverkehrbringen -- 1. Konstruktionspflichten -- 2. Der Bereich der Entwicklung -- 3. Fabrikationspflichten -- 4. Instruktionspflichten -- 5. Erhöhte Pflichten des Herstellers vor Inverkehrbringen -- III. Pflichten nach Inverkehrbringen -- 1. Die Produktbeobachtungspflicht -- a) Zweiteilung der Pflichten -- b) Der Rahmen der Beobachtungspflichten -- 2. Reaktionen bei Auffälligkeiten -- 3. Gesteigerte Pflichten im Bereich der Produktbeobachtung , IV. Die Sorgfalt des Herstellers von KI-Systemen -- B. Sorgfaltspflichten als zweistufige Relation -- I. Identifikation -- 1. Hackerangriff zur Manipulation und Sabotage -- 2. Fehlende Übersteuerungsmöglichkeit -- 3. Keine Diskriminierung durch Algorithmen -- 4. Schäden nach Fehlfunktion -- 5. Nur eingeschränkte Vorhersehbarkeit des Herstellers -- II. Reaktion -- 1. Vermeidbarkeit als Beherrschbarkeit -- 2. Einzelne Reaktionsmöglichkeiten -- a) Überwachungsmaßnahmen -- b) Updatepflicht -- c) Erneuerung der Datenmenge -- d) Erweiterte Testphase -- e) Erklärbarkeit -- 3. Zusammenfassung der Handlungsmöglichkeiten des Herstellers -- C. Ergebnis zu den Sorgfaltspflichten des Herstellers -- D. Weißbuch der Europäische Kommission -- Kapitel 5: Sorgfaltspflichten nach der Systemart -- A. Geschlossene Systeme -- B. Offene Systeme -- Kapitel 6: Erhöhte Sorgfaltspflichten des Herstellers von KI-Systemen -- Teil 5: Zivilrechtliche Haftung des Herstellers -- Kapitel 1: Aufbau des deutschen Haftungssystems -- A. Verschuldenshaftung -- I. Vertragliche Haftung -- II. Deliktische Haftung -- III. Weitere Normen mit Verschuldensbezug -- B. Gefährdungshaftung -- Kapitel 2: Vertragliche Haftung des Herstellers -- A. Vertragstypen nach Produktart -- I. Körperliche Gegenstände -- II. Virtuelle Systeme/Software -- B. Kaufrechtliche Mängelrechte -- I. Systematik der Mängelgewährleistungsrechte -- II. Vorliegen eines Mangels -- 1. Mangel des Endprodukts -- 2. Mangel eines Teilprodukts -- 3. Verbrauchsgüterkauf -- III. Vertretenmüssen -- 1. Verschulden des Endherstellers im Zwei-Personen-Verhältnis -- a) Vorsätzliches Handeln -- b) Fahrlässiges Verhalten -- 2. Verschulden im Drei-Personen-Verhältnis -- 3. Die KI als Erfüllungsgehilfe -- IV. Rechtsfolgen -- V. Verjährung -- VI. Beweislast -- C. Werkvertragliche Mängelrechte -- D. Werklieferungsvertrag , E. Zusammenfassend zur vertraglichen Haftung
    Additional Edition: Erscheint auch als Druck-Ausgabe Haagen, Christian Verantwortung für Künstliche Intelligenz Baden-Baden : Nomos Verlagsgesellschaft,c2021 ISBN 9783848779376
    Language: German
    Subjects: Law , Philosophy
    RVK:
    RVK:
    RVK:
    RVK:
    Keywords: Deutschland ; Künstliche Intelligenz ; Sorgfaltspflicht ; Produzentenhaftung ; Ethik ; Künstliche Intelligenz ; Ethik ; Verantwortung ; Hochschulschrift ; Hochschulschrift
    URL: Volltext  (lizenzpflichtig)
    URL: Volltext  (lizenzpflichtig)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 5
    Online Resource
    Online Resource
    Baden-Baden :Nomos Verlagsgesellschaft,
    UID:
    kobvindex_HPB989818038
    Format: 1 online resource (295 pages)
    ISBN: 9783845283982 , 384528398X
    Series Statement: Verwaltungsressourcen und Verwaltungsstrukturen ; v. 32
    Note: II. Leitbild einer smarten Stadt und erste Skizzen von Verwaltung 4.0. , Cover; Leben im Datenraum -- Handlungsaufruf für eine gesellschaftlich sinnvolle Nutzung von Big Data; 1. Einleitung; 2. Die Frage nach Nutzen und Herausforderungen von Big Data ist auch eine Gestaltungsfrage; 3. Algorithmen -- die Motoren zum Öl des 21. Jahrhunderts; 3.1 Algorithmen als Gatekeeper unserer Wahrnehmung; 3.2 Regulierungsansätze; 4. Big Data im öffentlichen Interesse; 5. Fazit und Ausblick; Literatur; Quellen; Sonstiges Material; Datenschutz-Folgenabschätzung; A. Einleitung; B. Verwandte Arbeiten. , I. Großbritannien: Der "Privacy Impact Assessment Code of Practice" des Information Commissioner's Office II. Frankreich: Das "Privacy Impact Assessment" der Commission Nationale de l'Informatique et des Libertés; C. Rechtliche Anforderungen; I. Durchführung einer Datenschutz-Folgenabschätzung; II. Anforderungen an eine Datenschutz-Folgenabschätzung; D. Elemente einer Datenschutz-Folgenabschätzung; I. Vorbereitungsphase; 1. Prüfplanung; 2. Das Standard-Datenschutzmodell; 3. Definition des Prüfgegenstandes; 4. Identifikation der beteiligten Akteure und Betroffenen. , 5. Identifikation der maßgeblichen Rechtsgrundlagen 6. Dokumentation der Problem- und Aufgabendefinition; II. Bewertungsphase; 1. Identifikation von Schutzzielen; 2. Identifikation von möglichen Angreifern, Angriffsmotiven und -zielen; 3. Identifikation von Bewertungskriterien und -maßstäben; 4. Bewertung des Risikos; III. Schutzmaßnahmen, Veröffentlichung und Überprüfung; 1. Identifikation und Implementierung passender Schutzmaßnahmen; 2. Dokumentation und Veröffentlichung des Ergebnisberichts; 3. Unabhängige Prüfung der Prüfergebnisse; 4. Überwachung und Fortschreibung. , E. Schlussfolgerungen -- Was kann eine Datenschutz-Folgenabschätzung leisten? Literatur; Die Datenschutzrichtlinie für Polizei und Strafjustiz und das deutsche Eingriffsrecht; I. Einleitung; II. Anwendungsbereich der Richtlinie; III. Auswirkungen der Richtlinie auf ausgewählte Regelungskomplexe; 1. Ermittlungsermächtigungen; 2. Kriminalbehördliche Datensammlungen; a) Voraussetzungen einer Speicherung; b) Inhalt und Struktur; c) Nutzung; 3. Datenübermittlungen ins In- und Ausland; 4. Informationsrechte der betroffenen Person; 5. Befugnisse der Datenschutzaufsichtsbehörden. , IV. Grundrechtliche Auswirkungen der Richtlinie V. Fazit; Anregungen für künftige Transparenzgesetze; 1. ; 2. ; 3. ; 4. ; Fazit; Smart Government -- Intelligent vernetztes Regierungs- und Verwaltungshandeln; A. Smart bedeutet intelligente Vernetzung!; I. Smarte Welt -- Intelligent vernetzte Welt; II. Häfler Stufenmodell und Häfler Definition von Smart Government; III. Intelligent vernetztes Regierungs- und Verwaltungshandeln: "Smart Handeln!" als konstruktive Leitvorstellung; B. Vision: Von Industrie 4.0 zur Verwaltung 4.0; I. Industrie 4.0 und das Leitbild der smarten Fabrik.
    Additional Edition: Print version: Hill, Hermann. Perspektiven der digitalen Lebenswelt. Baden-Baden : Nomos Verlagsgesellschaft, ©2017 ISBN 9783848740895
    Language: German
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 6
    UID:
    b3kat_BV048324569
    Format: 1 Online-Ressource (322 Seiten)
    Edition: 1st ed
    ISBN: 9783161615122
    Series Statement: BnGG
    Note: Cover -- Titel -- Vorwort -- Inhaltsübersicht -- Inhaltsverzeichnis -- Abkürzungsverzeichnis -- Einleitung -- Erstes Kapitel: Digitalisierung der öffentlichen Hand -- A. Phänomenologie der Digitalisierung der öffentlichen Hand -- I. Digitalisierung bei der Legislative -- II. Digitalisierung bei der Exekutive -- III. Digitalisierung bei der Judikative -- IV. Zwischenfazit -- B. Informationstechnologische Vergewisserung -- I. Terminologie -- 1. Der Begriff der Digitalisierung -- 2. Der Begriff des Algorithmus -- a) Begriffsbestimmung -- b) Darstellungsweisen eines Algorithmus -- aa) Darstellung eines Algorithmus als Flussdiagramm beziehungsweise Programmablaufplan -- bb) Textuelle Beschreibung eines Algorithmus beziehungsweise Darstellung als Code -- c) Voraussetzungen einer algorithmischen Entscheidungsfindung -- 3. Der Begriff der Künstlichen Intelligenz -- a) Begriffsbestimmung -- b) Maschinelles Lernen -- 4. Der Begriff des Legal Robot -- a) Begriffsverständnis -- b) Beispiele von Legal Robots -- c) Zuordnung von Legal Robots in die Kategorie der Legal Tech -- 5. Der Begriff der Automation, der Automatisierung und des vollständig durch automatische Einrichtungen erlassenen Verwaltungsaktes -- II. Übersetzung von Handlungsanweisungen in menschlicher Sprache in die Maschinensprache -- 1. Übersetzung eines Algorithmus -- 2. Fehlererkennung im Übersetzungsvorgang: Syntaxfehler und Typfehler -- III. Ausblick in die Quantentechnologie -- IV. Zwischenfazit -- C. Elektronische Datenverarbeitung bei der Verwaltung und technische Erzeugung von Verwaltungsentscheidungen -- I. Digitale Anwendbarkeit von Gesetzen in Form von Programmablaufplänen - Programmablaufpläne des Bundesministeriums der Finanzen , II. Erlass von Verwaltungsakten ohne personelle Bearbeitungsschritte im Besteuerungsverfahren - Gesetz zur Modernisierung des Besteuerungsverfahrens (StModG) -- 1. Ausschließlich automationsgestützt erlassener oder korrigierter Steuerbescheid als Leitbild der Steuerfestsetzung -- 2. Einsatz von Risikomanagementsystemen zur ausschließlich automationsgestützten Bearbeitung von dazu geeigneten Steuererklärungen -- a) Rechtsgrundlage des Risikomanagementsystems im Besteuerungsverfahren -- b) Funktionsweise des Risikomanagementsystems -- c) Zwischenfazit -- III. Wandel des Vollzugs von Gesetzen durch menschliche Überprüfung hin zu vollständig automatisiert erlassenen Verwaltungsakten - 35a VwVfG und 31a SGB X -- IV. Zwischenfazit -- Zweites Kapitel: Chancen und Risiken der technischen Erzeugung von Verwaltungsentscheidungen -- A. Chancen der technischen Erzeugung von Verwaltungsentscheidungen -- B. Strukturelle Unterschiede zwischen Mensch und Informationstechnik -- I. Entscheidungshoheit, Determiniertheit von Entscheidungen und Fähigkeit zur Reflexion -- 1. Differenzierung zwischen nicht lernenden und (selbst)lernenden Algorithmen -- a) Nicht lernender Algorithmus -- b) Lernender Algorithmus -- c) Zwischenfazit -- 2. Fähigkeit zur Reflexion -- II. Kognitive Fähigkeiten -- 1. Wissenserlangung und Erkenntnismöglichkeiten -- 2. Entscheidungsfindung -- a) Heuristische Entscheidungsfindung -- b) Transparente und objektive Entscheidungsfindung -- aa) Transparenz -- bb) Objektivität -- (1) Nicht lernender Algorithmus -- (2) Lernender Algorithmus -- (3) Zwischenfazit -- c) Entscheidungsfindung am Maßstab der Gerechtigkeit, Mitmenschlichkeit und Billigkeit -- 3. Zwischenfazit -- III. Entscheidungen bei der Anwendung von Gesetzen -- 1. Gesetzesanwendung nach dem Syllogismus der Rechtsfolgebestimmung , a) Auslegung des gesetzlichen Tatbestands ohne Wertungsraum - deskriptive und bestimmte Tatbestandsmerkmale oder konsistente Gesetzesauslegung durch die Verwaltung -- aa) Keine herkömmliche Gesetzesauslegung durch informationstechnische Systeme -- bb) Darstellung eines gesetzlichen Tatbestands als Flussdiagramm (Algorithmisierbarkeit deskriptiver und bestimmter Tatbestandsmerkmale) -- cc) Gesetzlicher Tatbestand ohne Wertungsraum - bestimmte und deskriptive Rechtsbegriffe -- dd) Konsistente Auslegung der Gesetze durch Verwaltungsvorschriften oder Selbstbindung der Verwaltung -- b) Bildung des Untersatzes des Syllogismus der Rechtsfolgebestimmung und Subsumtion ohne Wertungsraum -- aa) Herkömmliche Bildung und rechtliche Beurteilung des Sachverhalts -- bb) Bildung und rechtliche Beurteilung des Sachverhalts durch informationstechnische Systeme -- (1) Risikomanagementsysteme zur ausschließlich automationsgestützten Bearbeitung von dazu geeigneten Steuererklärungen ( 88 Abs. 5 AO) -- (2) Programmablaufpläne des Bundesministeriums der Finanzen -- (3) Möglicher Einsatz von Legal Robots -- (a) Feststellung des sich tatsächlich so zugetragenen Sachverhalts - Begrenzte Kenntnis durch Datenabhängigkeit des Algorithmus -- (b) Würdigung des Sachverhalts, der die Merkmale des Obersatzes enthält beziehungsweise Subsumtion - keine Kenntnis des gesetzlichen Obersatzes -- (c) Würdigung des Sachverhalts, der die Merkmale des Obersatzes enthält beziehungsweise Subsumtion - notwendige Konkretisierung wertausfüllungsbedürftiger Begriffe und Möglichkeit der rechtsprechungs- oder verwaltungsakzessorischen Rechtsanwendung -- (4) Zwischenfazit -- c) Rechtsfolgenseite ohne Wertungsraum - Gebundene Entscheidung oder konsistente Ermessensausübung durch die Verwaltung -- aa) Keine Ermessensausübung durch informationstechnische Systeme , (1) Determinierter Algorithmus ohne antizipierte Ermessensausübung -- (2) Lernender Algorithmus -- (3) Zwischenfazit -- bb) Konsistente Ausübung des Ermessens durch Verwaltungsvorschriften oder Selbstbindung der Verwaltung -- 2. Zusammenfassung -- IV. Zwischenfazit -- C. Weitere Risiken durch die technische Erzeugung von Verwaltungsentscheidungen -- I. Risiko eines fehlerhaften Massenvollzugs, der Intransparenz staatlichen Handelns, der reduzierten Überprüfbarkeit von Verwaltungsentscheidungen und der unzulänglichen Beteiligung der Betroffenen im Verwaltungsverfahren durch die Funktionsweise des Algorithmus -- II. Risiko der rechtswidrigen und fehlerhaften Profilbildung des Einzelnen und Risiko für Datenschutz und Datensicherheit durch die Datenabhängigkeit des Algorithmus -- III. Sonstige Risiken -- IV. Zwischenfazit -- Drittes Kapitel: Das Recht auf menschliche Entscheidung im Grundgesetz -- A. Bisherige Schutzbestrebungen im positiven Recht -- I. Landesverfassung der Freien Hansestadt Bremen -- II. Datenschutzgrundverordnung und Bundesdatenschutzgesetz -- 1. Art. 22 DS-GVO -- 2. 54 Abs. 1 BDSG -- III. Europäische Grundrechte -- 1. Charta der Grundrechte der Europäischen Union -- 2. Entwurf einer Charta der digitalen Grundrechte der Europäischen Union -- IV. Zwischenfazit -- B. Rechtsprechung des Bundesverfassungsgerichts in Bezug auf die Informationstechnologie -- I. "Digitalisierungsgrundrechte" nach dem Urteil Volkszählung und dem Urteil Online-Durchsuchung -- 1. Urteil Volkszählung -- 2. Urteil Online-Durchsuchung -- 3. Zwischenfazit -- II. Urteil Wahlcomputer -- III. Urteil Auslandsüberwachung durch den BND -- IV. Zwischenfazit -- C. Vorgaben des Grundgesetzes für die technische Erzeugung von Verwaltungsentscheidungen -- I. Gesetzmäßigkeit des Verwaltungshandelns, Art. 20 Abs. 3 GG -- 1. Bindung an das Gesetz im Sinne des Art. 20 Abs. 3 GG. , a) Charakter von Verwaltungsalgorithmen -- b) Notwendige parlamentsgesetzliche Ermächtigung -- 2. Wesentlichkeit als äußerste Grenze der technischen Entscheidungsfindung -- 3. Gesetzesanwendung im Wege des Syllogismus der Rechtsfolgebestimmung -- a) Gebundene Verwaltungsentscheidungen -- aa) Auslegung des Gesetzes durch informationstechnische Systeme -- bb) Bildung des Untersatzes durch informationstechnische Systeme -- cc) Zwischenfazit -- b) Entscheidungsfreiheit der Verwaltung durch Ermessensvorschriften -- 4. Keine fallakzessorische algorithmische Entscheidung sine lege, extra legem oder contra legem -- 5. Zusammenfassende Schlussfolgerung: Notwendigkeit einer menschlichen Entscheidung zur Wahrung der Gesetzmäßigkeit -- II. Amtsermittlungsgrundsatz und Grundsatz des fairen Verwaltungsverfahrens, Art. 20 Abs. 3 GG (Rechtsstaatsprinzip) i. V. m. Art. 2 Abs. 1 GG beziehungsweise Art. 1 Abs. 1 GG -- 1. Sorgfältige Ermittlung entscheidungserheblicher Tatsachen nach dem Grundsatz des fairen Verwaltungsverfahrens und dem Amtsermittlungsgrundsatz -- 2. Recht auf Verfahrensbeteiligung nach dem Grundsatz des fairen Verwaltungsverfahrens -- III. Weitere materiell-rechtliche Vorgaben der Verfassung -- IV. Zwischenfazit -- Viertes Kapitel: Kategorien technisch erzeugbarer Verwaltungsentscheidungen -- A. Vollständig technisch erzeugbare Entscheidung unter Ausschluss des Menschen -- I. Gesetzmäßigkeit des Verwaltungshandelns, behördliche Ermittlungspflichten und Verfahrensbeteiligung des Betroffenen -- II. Weitere materiell-rechtliche Vorgaben der Verfassung -- III. Beispiel einer vollständig technisch erzeugbaren Entscheidung unter Ausschluss des Menschen -- B. Automationsgeleitete menschliche Entscheidung und automationsgestützte menschliche Entscheidung , I. Gesetzmäßigkeit des Verwaltungshandelns, behördliche Ermittlungspflichten und Verfahrensbeteiligung des Betroffenen
    Additional Edition: Erscheint auch als Druck-Ausgabe Mund, Dorothea Das Recht auf menschliche Entscheidung Tübingen : Mohr Siebeck,c2022 ISBN 9783161615115
    Language: English
    Subjects: Law
    RVK:
    RVK:
    RVK:
    Keywords: Deutschland ; Verwaltungsautomation ; Entscheidungsunterstützung ; Beschränkung ; Gesetzmäßigkeit der Verwaltung ; Persönlichkeitsrecht ; Menschenwürde ; Deutschland ; Verwaltungsverfahren ; Digitalisierung ; Automation ; Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 7
    UID:
    b3kat_BV050102832
    Format: 1 Online-Ressource (481 Seiten)
    Edition: 1st ed
    ISBN: 9783161632532
    Note: Description based on publisher supplied metadata and other sources , Cover -- Titel -- Vorwort -- Inhaltsübersicht -- Inhaltsverzeichnis -- Kapitel 1: Einführende Betrachtungen -- 1 Einführung in den Untersuchungsgegenstand -- 2 Gang der Untersuchung -- 3 Risikomanagementsysteme der Finanzverwaltung -- A. Ziele und Wesen des Risikomanagements -- B. Risikomanagementsysteme als Teil einer Tax-Compliance-Strategie -- C. Besondere Gefahren der RMS gegenüber analoger Fallbearbeitung -- 4 Normative Anforderungen an RMS gem. 88 Abs. 5 AO -- A. Anwendungsbereich -- B. Regelungsinhalt des 88 Abs. 5 AO -- 5 Technische Grundlagen -- A. Begrifflichkeiten -- B. Allgemeine Funktionsweise von Machine Learning -- C. Einzelne Methoden des Machine Learning -- I. Lineare Regression -- II. Das Perzeptron als linearer Klassifikationsmechanismus -- III. Logistische Regression -- IV. Nearest-Neighbour-Classification -- V. Entscheidungsbäume und Random Forests -- VI. Neuronale Netze und Deep Learning -- D. Zusammenfassung -- Kapitel 2: Die faktische Ausgestaltung der RMS durch die Finanzverwaltung -- 1 Historie -- 2 Faktische Ausgestaltung der RMS durch die Finanzverwaltung -- A. Situation des KONSENS-Verbundes allgemein -- B. Gegenwärtige tatsächliche Gestaltung der RMS -- C. Effizienz der bestehenden Risikomanagementsysteme -- 3 Fazit -- Kapitel 3: Die unionsrechtliche Grenze des Art. 22 DSGVO -- 1 Geltung der DSGVO im Steuerverfahren -- 2 Der Tatbestand des Art. 22 Abs. 1 DSGVO hinsichtlich RMS -- A. Ausschließlich auf einer automatisierten Verarbeitung beruhende Entscheidung -- B. Teleologische Reduktion auf Profiling -- C. Rechtliche Wirkung oder in ähnlicher Weise erhebliche Beeinträchtigung -- D. Unterwerfung des Betroffenen unter die Entscheidung -- E. Zwischenergebnis -- 3 Die Ausnahmetatbestände des Art. 22 Abs. 2 DSGVO hinsichtlich RMS -- A. Allgemeines zu Art. 22 Abs. 2 DSGVO. , B. Wahrung der angemessenen Schutzmaßnahmen des Art. 22 Abs. 2 lit. b) DSGVO -- I. Anfechtungsrecht -- 1. Inhalt des Anfechtungsrechts -- 2. Wahrung des Anfechtungsrechts durch 150 Abs. 7, 155 Abs. 4 Satz 3 AO -- 3. Wahrung des Anfechtungsrechts durch die Einspruchsmöglichkeit gem. 347 ff. AO -- 4. Wahrung des Anfechtungsrechts durch gerichtlichen Rechtsschutz -- 5. Wahrung des Anfechtungsrechts durch Art. 77 DSGVO und Art. 21 DSGVO -- 6. Wahrung des Anfechtungsrechts durch die Möglichkeit formloser Rechtsbehelfe -- 7. Wahrung eines insgesamt gleichen Schutzniveaus in Gesamtbetrachtung aller Maßnahmen -- 8. Einschränkung des Anfechtungsrechts bei RMS gem. Art. 23 DSGVO -- 9. Zwischenfazit -- II. Recht auf persönliches Eingreifen und auf Darlegung des eigenen Standpunkts -- III. Spezifische Unterrichtung des Betroffenen -- IV. Transparente und faire Verarbeitung -- V. Besonderheiten bei RMS-Entscheidungen gegenüber Kindern -- 4 Fälle von Art. 22 Abs. 4 DSGVO hinsichtlich RMS -- 5 Ergebnis -- Kapitel 4: Nationalrechtliche Grenzen der Einsatzmöglichkeiten von RMS -- 1 Grundsätzliche Zulässigkeit automatisierter Risikobewertung -- A. Grundsätzliche Zulässigkeit der (teilweisen) Übertragung von rechtlichen Aufgaben auf Maschinen vor Art. 1 Abs. 1 GG -- B. Zulässigkeit der Übertragung von rechtlichen Aufgaben auf Maschinen in Sonderkonstellationen -- I. Automatisierte Ermessensausübung -- 1. Allgemeines -- 2. Ermessensreduzierung auf Null -- a) Selbstbindung der Finanzverwaltung durch RMS -- b) Zweite Stufe der Ermessensausübung -- c) Abgesenkter Maßstab für die zweite Stufe der Ermessensbetätigung bei RMS -- 3. Zwischenfazit -- II. Einschränkungen hinsichtlich einzelner Tatbestandsmerkmale -- III. Einschränkungen speziell für lernende Systeme -- C. Fazit -- 2 Verfassungsrechtliche Grenzen für aussteuernde Entscheidungen des RMS. , A. Subjektive Faktoren -- I. Allgemeines -- II. Hinreichende Bestimmtheit des 88 Abs. 5 Satz 1 AO -- 1. Allgemeines -- 2. Spezialfall des subjektiven Parameters: Beratung durch einen Steuerberater -- B. Verletzung von Art. 3 Abs. 1 GG durch Faktoren der RMS -- I. Art. 3 Abs. 1 GG und RMS -- II. Scheinkorrelationen als Verletzung von Art. 3 I GG -- C. Wirtschaftlichkeitserwägungen -- I. Allgemeine Betrachtung -- II. Das verfassungsrechtliche Wirtschaftlichkeitsgebot -- III. Einfluss der gesetzlichen Festlegung in 88 Abs. 2 Satz 2, Abs. 5 Satz 2 AO -- IV. Zwischenfazit -- D. Verletzung der besonderen Gleichheitsgrundrechte gem. Art. 3 Abs. 2, 3 GG -- I. Allgemeines -- II. Verletzung der Gleichheitsgrundrechte gem. Art. 3 Abs. 2, 3 GG durch Risikoparameter -- 1. Ungleichbehandlung -- 2. Rechtfertigung -- 3. Bedeutung von Art. 3 Abs. 2, 3 GG für aussteuernde Entscheidungen der RMS -- E. Zusammenfassung -- 3 Der Untersuchungsgrundsatz als Grenze für nichtaussteuernde Entscheidungen -- A. Inhalt und Grenzen des Untersuchungsgrundsatzes -- I. Allgemeines -- II. Verifikationsprinzip und Kooperationsmaxime -- III. Typisierung -- IV. Den Steuerpflichtigen begünstigende Aspekte des Untersuchungsgrundsatzes -- B. Bisherige tatsächliche Verletzung des Untersuchungsgrundsatzes durch RMS -- C. Zusammenfassung -- 4 Die Gefahr von strukturellen Vollzugsdefiziten -- A. Code Law -- B. Das Rechtsinstitut des strukturellen Vollzugsdefizits -- C. Strukturelle Vollzugsdefizite durch RMS -- I. Erhebungsdefizit durch RMS -- 1. Allgemeines -- 2. RMS als Verwaltungsvorschriften -- a) Bei regelbasierten Systemen -- b) Bei lernenden Systemen -- 3. Struktureller Fehler im RMS -- II. Zurechnung eines strukturellen Erhebungsdefizits infolge von RMS an den Gesetzgeber -- D. Zusammenfassung -- 5 Rechtsstaatliche Anforderungen an die innerstaatliche Kontrolle von RMS. , A. Allgemeines -- B. Grundsätzlich mögliche Kontrollmaßnahmen -- I. Übersicht der bestehenden allgemeinen Kontrollinstanzen -- 1. Parlamentarische Kontrolle -- 2. Innenrevision der Finanzverwaltung -- 3. Kontrolle durch die Rechnungshöfe -- 4. Zwischenfazit -- II. Möglicher Inhalt und Umfang von spezifischen zusätzlichen Kontrollmaßnahmen -- 1. Inhaltliche Kontrolle des Systems -- 2. Kontrolle der Sicherheit der Systeme -- C. 88 Abs. 5 Satz 3 Nr. 4 AO - Kontrollanforderungen und Verfassungsmäßigkeit -- I. Allgemeines -- II. Auslegung und Verfassungsmäßigkeit des 88 Abs. 5 Satz 3 Nr. 4 AO -- 1. Umfang und Intensität der Kontrollen -- a) Anforderungen der Norm -- b) Bisherige faktische Kontrolle und ihre Defizite -- c) Legislative Einschätzungsprärogative -- 2. Kontrollintervalle -- 3. Zuständigkeit -- 4. Ex ante Zulassungsverfahren -- D. Fazit -- 6 Ausblick: Der Entwurf einer KI-Verordnung der Europäischen Kommission -- A. Vorgesehene Regulierungsabstufungen in der Verordnung -- B. Bewertung des Entwurfs und Auswirkungen für RMS -- C. Fazit -- 7 Zusammenfassung -- Kapitel 5: Informationsansprüche gegen die Finanzverwaltung -- 1 Allgemeines -- 2 Art. 13-15 DSGVO -- A. Allgemeines -- B. Umfang der Art. 13 Abs. 2 lit. f), 14 Abs. 2 lit. g), 15 Abs. 1 Hs. 2 DSGVO -- I. Anwendungsbereich Art. 13 Abs. 2 lit. f), 14 Abs. 2 lit. g), 15 Abs. 1 Hs. 2 lit. h) DSGVO -- II. Anspruch aus Art. 15 Abs. 1 Hs. 2 DSGVO -- III. Auskunft über das "Bestehen einer automatisierten Entscheidungsfindung" gem. Art. 13 Abs. 2 lit. f), 14 Abs. 2 lit. g), 15 Abs. 1 Hs. 2 lit. h) DSGVO -- 1. Voraussetzungen -- 2. Ausschlusstatbestände -- a) Art. 13 Abs. 2 lit. f) DSGVO -- b) Art. 14 Abs. 2 lit. g) DSGVO -- c) Art. 15 Abs. 1 Hs. 2 lit. h) DSGVO -- d) Ergebnis -- IV. Aussagekräftige Informationen über die "involvierte Logik" -- 1. Maßgeblicher Zeitpunkt , 2. Inhalt der "involvierten Logik" -- 3. Ausschlussnormen der DSGVO -- V. Recht auf "die Tragweite und die angestrebten Auswirkungen einer derartigen Verarbeitung" -- 1. Anspruchsinhalt -- 2. Ausschluss gem. Art. 15 Abs. 4 DSGVO -- VI. Zusammenfassung -- C. Einschränkungen gem. 32a ff., 88 Abs. 5 Satz 4 AO i.V.m. Art. 23 DSGVO -- I. Allgemeines -- II. 32a Abs. 1 Nr. 1 AO -- 1. Einschränkungen der Informationspflicht bezüglich automatisierter Entscheidungsfindung -- 2. Einschränkungen der Informationspflicht über die involvierte Logik des Systems -- a) Allgemeines zur Gefährdung der Aufgabenwahrnehmung und zur Interessenabwägung -- aa) Gefährdung der Aufgabenwahrnehmung gem. 32a Abs. 2 Nr. 2 AO -- bb) Interessenabwägung -- b) Informationsinteresse an der Verarbeitung besonders sensibler Daten -- c) Art. 19 Abs. 4 GG -- d) Strafrechtliche Auswirkungen des RMS -- e) Verwaltungstransparenz -- f) Geheimhaltungsinteresse der Finanzverwaltung -- aa) Gesetzesmäßigkeit und Gleichheit der Besteuerung -- bb) Geistiges Eigentum -- cc) Fehlen vergleichbarer Ansprüche im analogen Bereich vor Einführung der DSGVO -- dd) Zwischenfazit -- g) Leitbildartige Interessenabwägung -- aa) Allgemeine Betrachtung -- bb) Fehlende Schutzwürdigkeit von rechtswidrigen Risikoparametern -- cc) Organisationsverschulden der Finanzverwaltung -- dd) Abwägung -- h) Zusammenfassung -- 3. Einschränkungen der Informationspflicht bezüglich der Tragweite und der angestrebten Auswirkungen -- III. 32a Abs. 1 Nr. 2 AO -- IV. 32a Abs. 1 Nr. 3 AO -- V. 88 Abs. 5 Satz 4 AO -- 1. Allgemeines -- 2. Anwendungsbereich 88 Abs. 5 Satz 4 AO -- 3. Wirksamkeitsanforderungen des Art. 23 DSGVO -- a) Formelle Voraussetzungen des Art. 23 Abs. 2 DSGVO -- b) Verhältnismäßigkeit -- aa) Maßstab -- bb) Auslegung des Tatbestands des 88 Abs. 5 Satz 4 AO. , cc) Teleologische Reduktion des 88 Abs. 5 Satz 4 AO.
    Additional Edition: Erscheint auch als Druck-Ausgabe Feldhaus, Alexander Die Finanzverwaltung und Ihre Algorithmen Tübingen : Mohr Siebeck,c2024 ISBN 9783161632525
    Language: German
    Subjects: Law
    RVK:
    Keywords: Deutschland ; Algorithmus ; Automation ; Finanzverwaltung ; Risikomanagement ; Steuererklärung ; Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 8
    UID:
    b3kat_BV048220392
    Format: 1 Online-Ressource (400 Seiten)
    Edition: 1st ed
    ISBN: 9783748903482
    Series Statement: Schriften zur Kriminologie v.19
    Note: Description based on publisher supplied metadata and other sources , Cover -- Kapitel I. Grundlagen des personenbezogenen Predictive Policing -- A. Einführung -- B. Gang der Untersuchung -- C. Terminologie und Abgrenzung -- I. Arten des Predictive Policing -- 1. Personenbezogen und ortsbezogen -- 2. Gefahrverdacht bestätigend und Gefahrverdacht erzeugend -- II. Abgrenzung zum Einsatz von Algorithmen im Strafverfahren, Strafvollzug und Ermittlungsverfahren -- D. Forschungszuschnitt -- 1. Aktualität -- 2. Transformatives Potenzial -- 3. Forschungslücke -- E. Technologischer Hintergrund -- I. Traditionelle statistische Verfahren -- 1. Zusammenstellen der Fallbasis -- 2. Festlegung der Zielvariablen -- 3. Festlegung der prädiktiven Inputvariablen -- 4. Ableitung eines prädiktiven Modells -- 5. Risikoübersetzung und -kommunikation -- a) Prozentsatz -- b) Kriminalitätswahrscheinlichkeit im Vergleich zur Durchschnittsbevölkerung -- c) Basisrate -- d) Fehlerrate -- e) Cut-Off -- 6. Anwendung auf den Einzelfall -- a) Personenkreis der Beurteilten -- b) Personenkreis der Beurteilenden -- II. Algorithmengestützte Verfahren -- 1. Regelbasierte algorithmengestützte Entscheidungssysteme -- 2. Fallbasierte algorithmengestützte Entscheidungssysteme -- a) Unterschiede: Zusammenstellen des Trainingsdatensatzes (Schritt 1) -- b) Unterschiede: Festlegung der Zielvariablen (Schritt 2) -- c) Unterschiede: Festlegung prädiktiver Inputvariablen (Schritt 3) -- d) Unterschiede: Ableitung eines prädiktiven Modells (Schritt 4) -- e) Unterschiede: Risikoübersetzung und -kommunikation (Schritt 5) -- f) Unterschiede: Anwendung auf den Einzelfall (Schritt 6) -- aa) Personenkreis der Beurteilten -- bb) Personenkreis der Beurteilenden -- (1) Von Prognose-Experten zu Prognose-Laien -- (2) Automation Bias -- III. Fazit zu technologischem Hintergrund -- F. Bestandsaufnahme: gegenwärtiger Einsatz -- I. USA und Großbritannien -- 1. Beware , 2. HART (Harm Assessment Risk Tool) -- 3. Strategic Subject List -- 4. Zusammenfassung -- II. Deutschsprachiger Raum -- 1. RADAR-iTE (Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- cc) Intransparenz -- 2. Palantir Gotham - hessenDATA -- 3. DyRiAS (Dynamisches Risiko-Analyse-System) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- 4. Fluggastdatenmusterabgleich -- 5. Zusammenfassung -- G. Tatsächliche Grenzen -- I. Keine Gesamtbetrachtung - Big Data heißt nicht All Data -- II. Keine Kausalität -- III. Keine Neutralität -- 1. Datenauswahlprozesse -- a) Mangelnde Datenqualität -- b) Dunkelfeld in den Statistiken -- c) Keine Repräsentativität der Stichprobe -- d) Perpetuierung gesellschaftlicher Diskriminierung -- e) Zwischenfazit und Lösungsmöglichkeiten -- 2. Festlegung der Zielvariablen -- 3. Auswahl der Inputvariablen -- 4. Kalibrierung und Überwachung des Lernprozesses -- a) Fehlerrate -- b) Überanpassung - Zufällige Korrelationen -- 5. Zusammenfassung -- H. Fazit zum Kapitel I. Grundlagen -- Kapitel II. Rechtliche Grenzen des personenbezogenen Predictive Policing -- A. Polizeirechtlicher Rahmen -- I. Einordnung in die Gefahr-Dogmatik -- 1. Konkrete Gefahr -- 2. Gefahrverdacht -- 3. Risikoscore als konkrete Gefahr? -- a) Gegenargumente -- b) Quantifizierbarkeit von normativen Abwägungsentscheidungen -- 4. Risikoscore als Gefahrverdacht? -- 5. Risikoscore als ein tatsächlicher Anhaltspunkt -- 6. Zwischenergebnis -- II. Fehler der Risikoscoreerstellung -- III. Ermächtigungsgrundlage -- 1. Erforderlichkeit einer Ermächtigungsgrundlage -- 2. Vorliegen einer Ermächtigungsgrundlage -- a) Standardbefugnisse , aa) Rasterfahndung -- (1) Errichten eines PPP-Systems -- (2) Erzeugen eines Risikoscores -- (a) "Stehendes" System -- (b) "Muster" statt Datenbestand -- (c) Neues Datum -- (d) Erhöhte Intransparenz -- bb) Generalklauseln der Datenspeicherung und Weiterverarbeitung -- (1) Datenspeicherung in automatisierten Dateisystemen -- (2) Datenverarbeitung und Datenabgleich -- (a) Datenverarbeitung -- (b) Datenabgleich -- cc) Automatisierte Anwendung zur Datenanalyse -- b) Allgemeine polizeirechtliche Generalklausel -- c) Datenschutzrecht -- d) Fluggastdatengesetz -- 3. Neue Standardbefugnis -- B. Verfassungsrechtlicher Rahmen -- I. Informationelle Selbstbestimmung -- 1. Umfang -- a) Entscheidung über die Preisgabe und Verwendung persönlicher Daten -- b) Geschützte Daten -- c) Verbot der Persönlichkeitsprofilbildung -- d) Gemeinwohldimension und Einschüchterungseffekte -- 2. Grenzen und Verhältnismäßigkeit -- 3. Konkrete Anforderungen des Rechts auf informationelle Selbstbestimmung an PPP -- a) Vorliegen einer hohen Eingriffsintensität -- aa) Heimlichkeit und Mangel an Transparenz -- bb) Streubreite -- cc) Automatisierung -- dd) Nähe zu Persönlichkeitsprofilen -- ee) Stigmatisierung -- b) Folgen einer hohen Eingriffsintensität -- aa) Hinreichend gewichtige Straftaten -- bb) Konkrete Gefahr -- (1) Anforderung des BVerfG zur Rasterfahndung -- (2) Kein Absenken der Eingriffsschwelle unter eine konkrete Gefahr -- c) Organisations- und Verfahrensvorgaben -- 4. Zusammenfassung -- II. Diskriminierungsverbot -- 1. Einführung -- 2. Quellen algorithmischer Diskriminierung -- a) Datenauswahlprozesse -- b) Festlegung der Zielvariablen -- c) Auswahl der Inputvariablen -- d) Kalibrierung und Überwachung des Lernprozesses -- 3. Rechtliche Einordnung -- a) Gleichheitssätze -- aa) Besondere Gleichheitssätze -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung , bb) Allgemeiner Gleichheitssatz -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung -- b) Besonderheiten im Rahmen von PPP -- aa) Erkennen einer Ungleichbehandlung -- bb) Ausdifferenzierte Fallgruppen der Ungleichbehandlung -- cc) Statistische Rechtfertigungen -- (1) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 3 S. 1 GG -- (a) Argument des "Rational Racism" -- (b) Argument des "kleineren Übels" -- (2) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 1 GG -- 4. Fazit zum Diskriminierungsverbot -- III. Transparenzgebot -- 1. Exkurs: Janusköpfigkeit des Blackbox-Narrativs -- 2. Drei Schichten der Intransparenz -- a) Begriffsklärung -- aa) Unzugänglichkeit qua Geheimhaltung -- bb) Unzugänglichkeit qua fehlendem Fachwissen -- cc) Unzugänglichkeit qua systemimmanenter Komplexität -- (1) Fallbasierte algorithmische Entscheidungssysteme -- (2) Regelbasierte algorithmische Entscheidungssysteme -- (3) Beispiele -- (4) Lösungsansätze: "Explainable AI" -- b) Fazit zu Transparenzschichten -- 3. Transparenzmechanismen -- a) Erste Transparenzdimension: Zeitpunkt der Offenlegung -- b) Zweite Transparenzdimension: Zur Einsichtnahme berechtigter Personenkreis -- aa) Subjektiv Betroffene -- (1) Einzelperson -- (2) Kollaboratives Crowdsourcing -- bb) Staatliche Kontrollinstitution -- (1) Mögliche Ausgestaltungen -- (2) Personelle Ausstattung -- (3) Organisatorisch-strukturelle Überlegungen -- (4) Fazit zu staatlichen Kontrollinstitutionen -- cc) Breite Öffentlichkeit -- dd) Fazit zum zur Einsichtnahme berechtigten Personenkreis -- c) Dritte Transparenzdimension: Umfang der Offenlegung -- aa) Abstrakte Informationen -- (1) Existenz und Einsatz im Einzelfall -- (2) Abstrakte Wirkungsprinzipien -- (3) Quellcode -- (4) Output-Testing -- (5) Protokollierungspflichten der Designphase -- bb) Begründung im Einzelfall -- cc) Fazit zum Transparenzgebot , 4. Argumente gegen Transparenz -- a) Unmöglichkeit von Transparenz -- b) Unnötigkeit von Transparenz -- aa) "Human in the Loop" -- bb) Vergleich mit bereits bestehender Intransparenz -- c) Überwiegen konkurrierender Interessen -- aa) Betriebsgeheimnis -- bb) Ausspähung des Algorithmus -- cc) Datenschutz Dritter -- dd) Fazit zum Überwiegen konkurrierender Interessen -- d) Fazit zu Argumenten gegen Transparenz -- 5. Rechtliche Verortung des Transparenzgebots -- a) Einfachgesetzlich -- aa) Datenschutzrecht -- bb) Informationsfreiheitsgesetze -- cc) Verwaltungsprozessrecht -- b) Verfassungsrecht -- aa) Menschenwürdekern des Rechts auf informationelle Selbstbestimmung -- bb) Demokratieprinzip -- (1) Legitimationskette -- (2) Demokratische Willensbildung -- (3) Demokratische Kontrolle -- cc) Rechtsstaatsprinzip -- 6. Fazit zum Transparenzgebot -- IV. Unschuldsvermutung -- C. Strafprozessuale Betrachtung: Umwidmung zum Tatermittlungswerkzeug -- I. Vorüberlegungen -- 1. Keine Beweisgeeignetheit -- 2. Zweifelhafte Aufklärungsgeeignetheit als Spurenansatz -- 3. Keine Ermittlungen "ins Blaue hinein" -- 4. Konkreter Ermittlungsansatz -- II. "Doppeltüren" der Datenweiterverarbeitung -- 1. Doppeltür: gefahrenabwehrrechtliche Seite -- 2. Doppeltür: strafprozessuale Seite -- a) 98 c S. 1 StPO: maschineller Abgleich von Daten -- aa) Fehlen besonderer Eingriffsschwellen -- bb) Keine Anwendbarkeit auf PPP -- b) 161 Abs. 2 StPO: katalogabhängige Maßnahmen der Datenerhebung -- c) 161 Abs. 1, 163 Abs. 1 StPO: Ermittlungsgeneralklausel -- aa) Vergleich mit der Onlinedurchsuchung vor 2017 -- (1) e. A. Zulassen der Verwendung als Spurenansatz -- (2) a. A. Ablehnung jeglicher Verwertung -- bb) Übertragung auf PPP -- III. Fazit zur Umwidmung zum Tatermittlungswerkzeug -- D. Fazit zum Kapitel II. Rechtliche Grenzen , Kapitel III. Algorithmische Wende in der Kriminalitätskontrolle - kriminologische, soziologische und rechtstheoretische Analyse
    Additional Edition: Erscheint auch als Druck-Ausgabe Sommerer, Lucia Personenbezogenes Predictive Policing : Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose Baden-Baden : Nomos Verlagsgesellschaft,c2020 ISBN 9783848762330
    Language: German
    Subjects: Law
    RVK:
    Keywords: Deutschland ; Gefahrenabwehr ; Verbrechenskontrolle ; Täter ; Kriminalprognose ; Algorithmus ; Informationelles Selbstbestimmungsrecht ; Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 9
    UID:
    kobvindex_ZLB34932414
    Format: 728 Seiten , Illustrationen , 28 cm
    Edition: 4., vollständig überarbeitete Auflage
    ISBN: 9783132438804
    Content: Allergien gezielt erkennen und wirksam behandeln. Eine nicht entdeckte Allergie kann für den Betroffenen erhebliche Beschwerden bedeuten und einen bedrohlichen Verlauf nehmen. Gleichzeitig wird nicht selten eine Allergie voreilig für Symptome verantwortlich gemacht, die eine ganz andere Ursache haben. Dieses Buch ist ein roter Faden auf dem goldenen Mittelweg, was bedeutet, eine Allergie rechtzeitig zu entdecken sowie eine Allergie - wenn notwendig - sicher auszuschließen. Der Inhalt umfasst die Vielfalt an Symptomen und Auslösern sowie viele Vorschläge für diagnostische und therapeutische Entscheidungen: - Allergene (umfangreicher Allergenkatalog): Pollen, Hausstaubmilben, Nahrungsmittel, Kontaktallergene, Wespengift, Arzneimittel usw. - Diagnostik: Allergen-spezifisches IgE, Testpläne (Pricktest, Intrakutantest, Epikutantest), nasale und orale Provokation usw. - Behandlung: Maßnahmen, um den Kontakt mit Allergenen zu vermeiden, klassische Medikamente und Biologika, Allergen-Immuntherapie (Hyposensibilisierung) Für den Alltag in Klinik und Praxis - Hintergrundinformationen helfen, Ursachen und Mechanismus zu verstehen - praktische Fallbeispiele - Algorithmen und Schemazeichnungen zur allergologischen Diagnostik - Übersichten und Vergleiche in Tabellenform - Berücksichtigung und Beschreibung wichtiger Differenzialdiagnosen: "Blick über den allergologischen Tellerrand" - Anleitung zur Notfalltherapie. Die Neuauflage berücksichtigt insbesondere Fortschritte und Weiterentwicklungen in den Gebieten Allergen-Immuntherapie, Allergen-spezifisches IgE (molekulare Allergologie), Nahrungsmittelallergie usw. sowie neue Behandlungsmöglichkeiten einschließlich Biologika. Neben einer gründlichen Überarbeitung des gesamten Inhalts haben die Autoren erneut ihre ganz persönliche praktische Erfahrung einfließen lassen, indem sie Wichtiges hervorheben, weniger Wichtiges weglassen und zu umstrittenen Fragen Stellung nehmen.
    Note: Deutsch
    Language: German
    Author information: Trautmann, Axel
    Author information: Kleine-Tebbe, Jörg
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 10
    Online Resource
    Online Resource
    Berlin : Univ.-Verl. der TU Berlin
    UID:
    kobvindex_ZLB34036562
    Format: 1 Online-Ressource (234 Seiten) , 4.73 MB
    Content: In dieser Arbeit werden die Möglichkeiten und Herausforderungen von Innovationen in großen Unternehmen am Beispiel des Energiesektors untersucht. Dieser Sektor ist heute zentral für das wirtschaftliche und gesellschaftliche Leben aber auch für die nationale Sicherheit. Dementsprechend sind mögliche Störungen bei der Energieversorgung unbedingt zu vermeiden. Der Umkehrschluss, dass deshalb „nicht zu innovieren“ weniger riskant sei, hat sich in den meisten Fällen als fundamental falsch herausgestellt, spätestens dann, wenn es um die langfristigen Perspektiven geht. Drei Geschäftsmodellinnovationen werden hier diskutiert, mit deren Hilfe Innovation generiert werden kann, ohne das Netz als ganzes zu gefährden. Das erste Modell zielt auf die Struktur des Versorgungsnetzes. Es schlägt dezentrale Netze vor, die durch ein übergeordnetes System miteinander verbunden werden, um so eine größere Stabilität in der Versorgung zu erzielen. Das zweite Modell ist sowohl auf die Verhinderung von Störungen als auch auf einen reibungslosen Informationsfluss im Falle einer Störung gerichtet. Es soll den Betroffenen ermöglichen, angemessen auf die Veränderungen in ihrer Umwelt reagieren zu können. Das dritte Modell nimmt den menschlichen Faktor in den Blick und bietet ein System, das hilft, Verwundbarkeiten zu entdecken, bevor sie zu großen Schäden führen. Aus dieser Diskussion wird schlussendlich das Fazit gezogen, dass die sich aus den Veränderungen in allen drei Feldern ergebenden synergetischen Effekte das Potential einer Schumpeterschen Innovation aufweisen. Dabei wird ebenfalls betont, dass die erfolgreiche Etablierung von Innovationen zugleich bedeuten kann, das neue Optimierungsmethoden genutzt werden müssen, wobei evolutionäre Algorithmen besonders empfohlen werden.
    Note: Berlin, Technischen Universität Berlin, Dissertation, 2018
    Language: German
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. Further information can be found on the KOBV privacy pages