Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
Filter
  • KOBV  (4)
Type of Material
Type of Publication
Consortium
  • KOBV  (4)
Language
  • 1
    UID:
    (DE-602)b3kat_BV048324103
    Format: 1 Online-Ressource (234 Seiten)
    Edition: 1st ed
    ISBN: 9783748932406
    Series Statement: Schriften zum Medien- und Informationsrecht v.62
    Note: Cover -- A. Einführung -- I. Untersuchungsgegenstand -- II. Methode und Gang der Untersuchung -- B. Grundlagen und Definitionen -- I. Suchmaschinen -- II. Algorithmen -- III. Algorithmusbasierte Suchmaschinen -- 1. Crawler -- 2. Indexer -- 3. Abfragemodul -- 4. PageRank-Algorithmus -- IV. Suchmaschinenmodelle -- V. Google als Suchmaschinenmodell -- C. Grundrechtliche Einordnung von Suchmaschinen -- I. Stand der Rechtsprechung -- 1. Europäische Rechtsprechung -- 2. Nationale Rechtsprechung -- 3. Fazit -- II. Weitergehender Grundrechtsschutz: Kommunikationsgrundrechte -- 1. Grundrechtsschutz nach Art. 11 Abs. 1 GRCh -- Art. 5 Abs. 1 Satz 1 Var. 1 bzw. Satz 2 Var. 1 oder 2 GG -- a) Genuiner Grundrechtsschutz gem. Art. 11 Abs. 1 Satz 2 GRCh -- Art. 5 Abs. 1 Satz 1 Var. 1 GG (Ergebnisliste) -- (1) Schutzbereich auf europäischer Ebene -- (2) Schutzbereich auf nationaler Ebene -- (b) Eigene Meinung -- (c) Zwischenfazit -- b) Genuiner Grundrechtsschutz gem. Art. 11 Abs. 1 Satz 2 GRCh -- Art. 5 Abs. 1 Satz 2 Var. 1 oder 2 GG (Vermittlungsprozess) -- (1) Schutzbereich auf europäischer Ebene -- (2) Schutzbereich auf nationaler Ebene -- (a) Allgemeinheit und Kommunikationsinhalte -- (b) Presse -- (c) Rundfunk -- (d) Abgrenzung -- (i) Notwendigkeit -- (ii) Bisherige Abgrenzung -- (iii) Fortentwicklung der Abgrenzungskriterien - Konvergenz der Medien -- (iv) Einheitliches Grundrecht der Medienfreiheit -- (3) Einordnung von Suchmaschinen -- (a) Allgemeinheit -- (b) Wirkungsweise -- (i) Rundfunk -- (ii) Presse -- (c) Zwischenfazit -- c) Annexgrundrechtsschutz nach Art. 11 Abs. 1 Satz 2 GRCh -- Art. 5 Abs. 1 Satz 2 Var. 1 GG (Vermittlungsprozess) -- (1) Begriffsbestimmung: "Annex" -- (2) Einordnung von Suchmaschinen -- (a) Kompatibilität der Sachverhalte -- (b) Medienbezug -- (c) Bindung -- (d) Notwendigkeit / Beschränkung bei staatlicher Regulierung , (3) Zwischenfazit -- d) Fazit -- 2. Google als Grundrechtsverpflichtete -- a) Unmittelbare Grundrechtsbindung -- b) Gesteigerte mittelbare Grundrechtswirkung -- c) Zwischenfazit -- III. Fazit -- D. Harmonisierung eines Abwägungssystems i.B.a. Auslistungsansprüche -- I. Medienprivileg -- II. Abwägungssysteme des Äußerungs- und Datenschutzrechts -- 1. Normative Verortung und allgemeine Strukturvorgaben der Rechtsprechung -- a) Äußerungsrecht -- (1) Nationale Ebene -- (a) Allgemeines Persönlichkeitsrecht -- (b) Abwägungsregeln -- (i) Verfassungsrechtliche Direktiven: Wortberichterstattung -- a. Tatsachenbehauptungen und Werturteile -- b. Betroffene Sphäre -- c. Abwägung mit dem Interesse der Öffentlichkeit (Vermutungsregel) -- (ii) Verfassungsrechtliche Direktiven: Bildberichterstattung -- (iii) Besonderheit: Äußerungen im Internet -- a. Internetspezifische Besonderheiten -- b. Abwägung -- (2) Europäische Ebene -- (3) Zwischenfazit -- b) Datenschutzrecht -- (1) Recht auf informationelle Selbstbestimmung -- (2) Abwägungsregeln -- (a) Art. 17 Abs. 3 lit. a DSGVO: Vorrang des Rechts auf Meinungs- und Informationsfreiheit? -- (b) Art. 17 Abs. 3 lit. b und c DSGVO: Vorrang des Rechts auf informationelle Selbstbestimmung? -- (c) Art. 6 Abs. 1 lit. e und f DSGVO -- (i) Art. 6 Abs. 1 lit. e DSGVO: Anwendbarkeit? -- (ii) Art. 6 Abs. 1 lit. f DSGVO: Vorrang des Rechts der Meinungs- und Informationsfreiheit? -- (d) Art. 21 DSGVO: Vorrang des Rechts auf informationelle Selbstbestimmung? -- (e) Sphärentheorie -- (f) Zwischenfazit -- 2. Urteilsanalyse zu Online-Medien/Intermediären -- (1) Äußerungsrecht -- (a) EGMR, Ents. v. 4.12.2018 - 62721/13 - Bild GmbH & -- Co KG vs. Germany -- Axel Springer AG vs. Germany -- (b) EGMR, Urt. v. 28.6.2018 - 60798/10 - M.L. und W.W. vs. Germany (Sedlmayr) -- (c) EGMR, Urt. v. 19.10.2017 - 71233/13 - Fuchsmann vs. Germany , (d) BVerfG, Beschl. v. 7.7.2020 - 1 BvR 146/17 - Verdachtsberichterstattung -- (e) BVerfG, Beschl. v. 6.11.2019 - 1 BvR 16/13 - Recht auf Vergessen I -- (e) BGH, Urt. v. 18.12.2018 - VI ZR 439/17 - Online-Pressearchiv IV -- (f) BGH, Urt. v. 22.2.2011 - VI ZR 114/09 - Online-Pressearchiv III -- (g) BGH, Urt. v. 9.2.2010 - VI ZR 243/08 - Online-Pressearchiv II -- (h) BGH, Urt. v. 15.12.2009 - VI ZR 227/08 - Online-Pressearchiv I -- (2) Datenschutzrecht -- (a) EuGH, Urt. v. 24.9.2019 - C-136/17 - Sensitive Data -- (b) EuGH, Urt. v. 13.5.2014 - C-131/12 - Google Spain -- (c) BGH, Beschl. v. 27.7.2020 - VI ZR 405/18 - Recht auf Vergessen I -- (3) Äußerungs- und Datenschutzrecht -- (a) BVerfG, Beschl. v. 6.11.2019 - 1 BvR 276/17 - Recht auf Vergessen II -- (b) BGH, Urt. v. 24.7.2018 - VI ZR 330/17 - Prüfpflicht Suchmaschinen -- (c) BGH, Urt. v. 27.2.2018 - VI ZR 489/16 - Internetforum -- (d) BGH, Urt. v. 20.2.2018 - VI ZR 30/17 - Jameda III -- (e) BGH, Urt. v. 12.10.2021 - VI ZR 488/19 - Jameda IV -- (f) Obergerichtliche Entscheidungen -- (4) Zusammenfassung -- (5) Kritische Auswertung der Urteilsanalyse -- 3. Literatur -- 4. Institutionelle Entscheidungspraxis -- a) Äußerungsrecht -- b) Datenschutzrecht -- 5. Fazit -- III. Vergleichbarkeit der Schutzgüter -- IV. Konkurrenzverhältnis Datenschutz- und Äußerungsrecht -- 1. Art. 85 Abs. 1 DSGVO als Öffnungsklausel vs. unionsweit harmonisiertes Abwägungssystem -- 2. Konkurrenzverhältnis zum Äußerungsrecht -- a) Art. 6 Abs. 1 lit. f DSGVO -- b) Art. 17 Abs. 3 lit. a DSGVO -- 3. Fazit -- V. Auswirkungen eines harmonisierten Abwägungssystems auf die Praxis -- 1. Grundsätzliche Auswirkung einer Harmonisierung -- 2. Exemplarische Übertragung des harmonisierten Abwägungssystems -- VI. Fazit -- E. Regulierung i.S.d. Persönlichkeitsrechtsschutzes -- I. Abstrakte Regulierungsbedürftigkeit , II. Konkrete Regulierungsbedürftigkeit und Vorschläge -- III. Fazit -- F. Zusammenfassung und Ausblick -- I. Weitergehender Grundrechtsschutz der Suchmaschinen: Kommunikationsgrundrechte -- II. Harmonisierung des Datenschutzrechts mit äußerungsrechtlichen Abwägungsmaßstäben -- III. Regulierung von Google -- G. Ergebnisse der Untersuchung in Thesen -- H. Literaturverzeichnis -- I. Monographien, Aufsätze, Kommentare -- II. Berichte
    Additional Edition: Erscheint auch als Druck-Ausgabe Heilmann, Dorothea Recht auf Vergessenwerden Baden-Baden : Nomos Verlagsgesellschaft,c2022 ISBN 9783848789665
    Language: English
    Subjects: Law
    RVK:
    RVK:
    Keywords: Europäische Union ; Deutschland ; Suchmaschine ; Meinungsfreiheit ; Persönlichkeitsrecht ; Abwägung ; Recht auf Vergessenwerden ; Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 2
    UID:
    (DE-602)b3kat_BV047695319
    Format: 1 online resource (388 pages)
    Edition: 1st ed
    ISBN: 9783748923220
    Series Statement: Robotik und Recht v.22
    Note: Description based on publisher supplied metadata and other sources , Cover -- Einleitung -- Teil 1: Intelligente Systeme, Autonomie und Künstliche Intelligenz -- Kapitel 1: Die historische Genese -- A. Die ersten mechanischen Ansätze -- B. Gegenwärtige Einsatzbereiche -- Kapitel 2: Kulturgeschichtlicher Hintergrund -- A. Roboter als Begleiter des Menschen -- B. Übertragbarkeit juristischen Vokabulars auf Maschinen -- C. Roboterrisiken -- Kapitel 3: Kategorisierung von Systemen -- A. Unterscheidung System - Maschine - Roboter - Agenten -- I. Agenten -- II. Maschinen und Roboter -- III. Systeme -- IV. Zusammenfassung -- B. "Intelligenzstufen" von Systemen -- I. Automatisierte Systeme -- II. Autonome Systeme -- 1. Der Begriff der Autonomie -- 2. Die verschiedenen Autonomiegrade -- Kapitel 4: Künstliche Intelligenz -- A. Entstehungsgeschichte -- B. Begriffsbestimmung -- I. Intelligenz - ein wandelnder Prozess -- 1. Natürliche Intelligenz -- a) Der Ansatz von Thorndike -- b) Übertragbarkeit des Ansatzes auf KI-Systeme -- c) Die Abstraktheit menschlicher Intelligenz -- 2. Wann ist eine Maschine intelligent? -- a) Anknüpfung an die Fehleranfälligkeit -- b) Der Turing-Test -- c) Zwischenfazit zur Maschinenintelligenz -- 3. Der Zusammenhang zwischen natürlicher und maschineller Intelligenz -- II. Von "Menschlich" zu "Künstlich" -- C. Arten Künstlicher Intelligenz -- D. Begriffsverständnis der Künstlichen Intelligenz -- E. Weitere Anwendungsbereiche Künstlicher Intelligenz -- I. Machine Learning -- 1. Nicht überwachtes Lernen -- 2. Überwachtes Lernen -- 3. Reinforcement Learning -- II. Deep Learning -- F. KI als Dreh- und Angelpunkt -- Teil 2: Ethik und Robotik -- Kapitel 1: Ethik und Moral - allgemeine Begriffsbestimmungen -- Kapitel 2: Ethische Gesichtspunkte beim Einsatz von intelligenten Systemen -- A. Die verschiedenen Arten von Ethik -- I. Deskriptive Ethik -- II. Normative Ethik -- 1. Deontologische Ethik , 2. Konsequentialistische Ethik -- III. Metaethik -- B. Maschinenethik -- C. Die Moralfähigkeit als zentrale Voraussetzung für ethisches Handeln -- I. Generelle Anforderungen an die moralische Verantwortungsfähigkeit -- 1. Intentionalität dritter Stufe -- 2. Sprachfähigkeit -- 3. Selbstbewusstsein -- II. Der freie Wille als Grundstein moralischen Handelns -- III. Moralische Akteure -- 1. Lebewesen -- 2. Unternehmen -- 3. Intelligente Systeme -- a) Intentionalität dritter Stufe und ein freier Wille -- b) Sprachfähigkeit -- c) Selbstbewusstsein -- d) Keine Moralfähigkeit von Systemen -- IV. Konsequenzen fehlender Moralfähigkeit -- 1. Keine moralischen Rechte und Pflichten für Systeme -- 2. Kein zulässiger Vergleich mit der Moralfähigkeit von Tieren -- 3. Zusammenspiel von moralischer und rechtlicher Verantwortung -- 4. Resümee zur Moralfähigkeit von Systemen -- V. Ethisches Handeln der Systeme -- D. Die Programmierung moralischer Richtlinien -- I. Grundsätzliche Programmierbarkeit -- II. Zugrundeliegender Standard -- 1. Die menschliche Moral als Grundstein des Maschinenhandelns -- 2. Eigene Maschinenleitlinien -- 3. Kombinierter Lösungsvorschlag -- III. Probleme der Programmierung -- IV. Konsequenzen bei einem Verstoß -- 1. Verstoß gegen die Moral -- 2. Konsequenzen des Verstoßes -- Kapitel 3: Invented for Life unter dem Gesichtspunkt der KI -- A. Die Bedeutung eines Unternehmensslogans -- I. Allgemeine Unternehmensphilosophie -- II. Bedeutung des Slogans "Invented for Life" -- 1. Wortlautbedeutung -- 2. Verantwortungsbereiche -- 3. Bedeutungsumfang -- B. Vereinbarkeit des Slogans mit dem Einsatz von KI -- I. Festlegung eines Beurteilungsmaßstabs -- II. Überlegungen zur Vereinbarkeit -- C. Ergebnis -- Teil 3: Der Verantwortungsbegriff in Ethik und Recht -- Kapitel 1: Die Verantwortung in der Ethik -- A. Verantwortung als dreistellige Relation , I. Voraussetzungen der Verantwortungszuschreibung -- 1. Wer ist verantwortlich? -- 2. Wofür ist er oder sie verantwortlich? -- 3. Wem gegenüber besteht die Verantwortung? -- II. Folgen moralischer Verantwortung -- B. Moralische Verantwortungsfähigkeit -- Kapitel 2: Der Verantwortungsbegriff im Recht -- A. Verantwortung als allgemeiner Zuschreibungsvorgang -- B. Voraussetzungen der Verantwortungszuschreibung im materiell-rechtlichen Sinne -- I. Zurechnungsfähigkeit -- II. Handlungsfreiheit -- III. Bewusstsein des Fehlverhaltens -- IV. Kausalität -- C. Die Person als Zurechnungsobjekt -- D. Die Rechtsfähigkeit als Dreh- und Angelpunkt -- Kapitel 3: Verantwortungsfragen in den verschiedenen Rechtsgebieten -- A. Anwendungsfälle im Zivilrecht -- I. Verschuldens- und Gefährdungshaftung -- II. Haftungsvermögen -- III. Unabhängige Verantwortung -- B. Verantwortung im Strafrecht -- C. Anwendungsbereich im Öffentlichen Recht -- Kapitel 4: Die Verantwortung eines Systems -- A. Moralische Verantwortung der KI-Systeme -- B. Moralische Verantwortung für KI-Systeme -- C. Rechtliche Verantwortung -- I. Subsumtion unter die Voraussetzungen der rechtlichen Verantwortung -- 1. Zurechnungsfähigkeit -- 2. Handlungsfreiheit -- 3. Bewusstsein des Fehlverhaltens -- 4. Kausalität -- 5. Zwischenergebnis -- II. Rechtsfähigkeit von Systemen -- 1. Kraft Natur der Sache -- 2. Mittels Analogie -- a) Planwidrige Regelungslücke -- b) Vergleichbarkeit der Interessenlagen -- c) Analogie zu anderen Vorschriften -- d) Zwischenergebnis -- 3. Stand de lege lata -- III. Ergebnis zur rechtlichen Verantwortung -- D. Keine Verantwortungsfähigkeit -- Teil 4: Sorgfaltsanforderungen an den Hersteller von KI-Systemen -- Kapitel 1: Begriffsbestimmung und Hintergrund -- A. Relevanz der Sorgfalt im Haftungskontext -- B. Begriff und Umfang der Sorgfalt -- I. Der Begriff der Sorgfalt , II. Umfang und Maßstab der zivilrechtlichen Sorgfalt -- C. Zwischenergebnis -- Kapitel 2: Human oversight -- A. Human-in-the-loop -- B. Human-on-the-loop -- C. Human-in-command -- Kapitel 3: Einflussfaktoren auf den Sorgfaltsmaßstab des Herstellers -- A. Faktoren des Sorgfaltsmaßstabs -- I. Überwachungsmöglichkeit des Anwenders -- 1. Allgemeine Überwachungsfähigkeit -- 2. Divergenz des Sorgfaltsmaßstabs bei human oversight-Formen -- 3. Zwischenergebnis -- II. Übersteuerungsmöglichkeit des Anwenders -- III. Einsatzbereich und Adressatenkreis des Produkts -- 1. Grundlegende Erwägungen -- 2. Spezifika beim Einsatz von KI -- 3. Zwischenergebnis -- IV. Stand von Wissenschaft und Technik -- 1. Grundsätze -- 2. Entwicklung von KI-Systemen -- V. Betroffene Rechtsgüter -- VI. Schädigungspotential, Schadenswahrscheinlichkeit und Schadenshöhe -- VII. Ergebnis zu den variierenden Sorgfaltspflichten -- B. Besonderheiten bei KI-Systemen -- I. Unberechenbarkeit -- II. Mangelnde Beherrschbarkeit -- III. Eingeschränkte Nachvollziehbarkeit -- IV. Einfluss der human oversight auf die Sorgfaltsanforderungen des Herstellers -- 1. HITL -- 2. HOTL -- 3. HIC -- 4. Zusammenfassend zur human oversight -- C. Besondere Sorgfaltspflichten des Herstellers bei KI-Systemen -- Kapitel 4: Sorgfaltspflichten des Warenherstellers -- A. Spezielle Pflichten des Herstellers -- I. Die Zäsur des Inverkehrbringens -- II. Pflichten bis zum Inverkehrbringen -- 1. Konstruktionspflichten -- 2. Der Bereich der Entwicklung -- 3. Fabrikationspflichten -- 4. Instruktionspflichten -- 5. Erhöhte Pflichten des Herstellers vor Inverkehrbringen -- III. Pflichten nach Inverkehrbringen -- 1. Die Produktbeobachtungspflicht -- a) Zweiteilung der Pflichten -- b) Der Rahmen der Beobachtungspflichten -- 2. Reaktionen bei Auffälligkeiten -- 3. Gesteigerte Pflichten im Bereich der Produktbeobachtung , IV. Die Sorgfalt des Herstellers von KI-Systemen -- B. Sorgfaltspflichten als zweistufige Relation -- I. Identifikation -- 1. Hackerangriff zur Manipulation und Sabotage -- 2. Fehlende Übersteuerungsmöglichkeit -- 3. Keine Diskriminierung durch Algorithmen -- 4. Schäden nach Fehlfunktion -- 5. Nur eingeschränkte Vorhersehbarkeit des Herstellers -- II. Reaktion -- 1. Vermeidbarkeit als Beherrschbarkeit -- 2. Einzelne Reaktionsmöglichkeiten -- a) Überwachungsmaßnahmen -- b) Updatepflicht -- c) Erneuerung der Datenmenge -- d) Erweiterte Testphase -- e) Erklärbarkeit -- 3. Zusammenfassung der Handlungsmöglichkeiten des Herstellers -- C. Ergebnis zu den Sorgfaltspflichten des Herstellers -- D. Weißbuch der Europäische Kommission -- Kapitel 5: Sorgfaltspflichten nach der Systemart -- A. Geschlossene Systeme -- B. Offene Systeme -- Kapitel 6: Erhöhte Sorgfaltspflichten des Herstellers von KI-Systemen -- Teil 5: Zivilrechtliche Haftung des Herstellers -- Kapitel 1: Aufbau des deutschen Haftungssystems -- A. Verschuldenshaftung -- I. Vertragliche Haftung -- II. Deliktische Haftung -- III. Weitere Normen mit Verschuldensbezug -- B. Gefährdungshaftung -- Kapitel 2: Vertragliche Haftung des Herstellers -- A. Vertragstypen nach Produktart -- I. Körperliche Gegenstände -- II. Virtuelle Systeme/Software -- B. Kaufrechtliche Mängelrechte -- I. Systematik der Mängelgewährleistungsrechte -- II. Vorliegen eines Mangels -- 1. Mangel des Endprodukts -- 2. Mangel eines Teilprodukts -- 3. Verbrauchsgüterkauf -- III. Vertretenmüssen -- 1. Verschulden des Endherstellers im Zwei-Personen-Verhältnis -- a) Vorsätzliches Handeln -- b) Fahrlässiges Verhalten -- 2. Verschulden im Drei-Personen-Verhältnis -- 3. Die KI als Erfüllungsgehilfe -- IV. Rechtsfolgen -- V. Verjährung -- VI. Beweislast -- C. Werkvertragliche Mängelrechte -- D. Werklieferungsvertrag , E. Zusammenfassend zur vertraglichen Haftung
    Additional Edition: Erscheint auch als Druck-Ausgabe Haagen, Christian Verantwortung für Künstliche Intelligenz Baden-Baden : Nomos Verlagsgesellschaft,c2021 ISBN 9783848779376
    Language: German
    Subjects: Law , Philosophy
    RVK:
    RVK:
    RVK:
    RVK:
    Keywords: Deutschland ; Künstliche Intelligenz ; Sorgfaltspflicht ; Produzentenhaftung ; Ethik ; Künstliche Intelligenz ; Ethik ; Verantwortung ; Hochschulschrift ; Hochschulschrift
    URL: Volltext  (lizenzpflichtig)
    URL: Volltext  (lizenzpflichtig)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 3
    UID:
    (DE-602)b3kat_BV048220392
    Format: 1 Online-Ressource (400 Seiten)
    Edition: 1st ed
    ISBN: 9783748903482
    Series Statement: Schriften zur Kriminologie v.19
    Note: Description based on publisher supplied metadata and other sources , Cover -- Kapitel I. Grundlagen des personenbezogenen Predictive Policing -- A. Einführung -- B. Gang der Untersuchung -- C. Terminologie und Abgrenzung -- I. Arten des Predictive Policing -- 1. Personenbezogen und ortsbezogen -- 2. Gefahrverdacht bestätigend und Gefahrverdacht erzeugend -- II. Abgrenzung zum Einsatz von Algorithmen im Strafverfahren, Strafvollzug und Ermittlungsverfahren -- D. Forschungszuschnitt -- 1. Aktualität -- 2. Transformatives Potenzial -- 3. Forschungslücke -- E. Technologischer Hintergrund -- I. Traditionelle statistische Verfahren -- 1. Zusammenstellen der Fallbasis -- 2. Festlegung der Zielvariablen -- 3. Festlegung der prädiktiven Inputvariablen -- 4. Ableitung eines prädiktiven Modells -- 5. Risikoübersetzung und -kommunikation -- a) Prozentsatz -- b) Kriminalitätswahrscheinlichkeit im Vergleich zur Durchschnittsbevölkerung -- c) Basisrate -- d) Fehlerrate -- e) Cut-Off -- 6. Anwendung auf den Einzelfall -- a) Personenkreis der Beurteilten -- b) Personenkreis der Beurteilenden -- II. Algorithmengestützte Verfahren -- 1. Regelbasierte algorithmengestützte Entscheidungssysteme -- 2. Fallbasierte algorithmengestützte Entscheidungssysteme -- a) Unterschiede: Zusammenstellen des Trainingsdatensatzes (Schritt 1) -- b) Unterschiede: Festlegung der Zielvariablen (Schritt 2) -- c) Unterschiede: Festlegung prädiktiver Inputvariablen (Schritt 3) -- d) Unterschiede: Ableitung eines prädiktiven Modells (Schritt 4) -- e) Unterschiede: Risikoübersetzung und -kommunikation (Schritt 5) -- f) Unterschiede: Anwendung auf den Einzelfall (Schritt 6) -- aa) Personenkreis der Beurteilten -- bb) Personenkreis der Beurteilenden -- (1) Von Prognose-Experten zu Prognose-Laien -- (2) Automation Bias -- III. Fazit zu technologischem Hintergrund -- F. Bestandsaufnahme: gegenwärtiger Einsatz -- I. USA und Großbritannien -- 1. Beware , 2. HART (Harm Assessment Risk Tool) -- 3. Strategic Subject List -- 4. Zusammenfassung -- II. Deutschsprachiger Raum -- 1. RADAR-iTE (Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- cc) Intransparenz -- 2. Palantir Gotham - hessenDATA -- 3. DyRiAS (Dynamisches Risiko-Analyse-System) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- 4. Fluggastdatenmusterabgleich -- 5. Zusammenfassung -- G. Tatsächliche Grenzen -- I. Keine Gesamtbetrachtung - Big Data heißt nicht All Data -- II. Keine Kausalität -- III. Keine Neutralität -- 1. Datenauswahlprozesse -- a) Mangelnde Datenqualität -- b) Dunkelfeld in den Statistiken -- c) Keine Repräsentativität der Stichprobe -- d) Perpetuierung gesellschaftlicher Diskriminierung -- e) Zwischenfazit und Lösungsmöglichkeiten -- 2. Festlegung der Zielvariablen -- 3. Auswahl der Inputvariablen -- 4. Kalibrierung und Überwachung des Lernprozesses -- a) Fehlerrate -- b) Überanpassung - Zufällige Korrelationen -- 5. Zusammenfassung -- H. Fazit zum Kapitel I. Grundlagen -- Kapitel II. Rechtliche Grenzen des personenbezogenen Predictive Policing -- A. Polizeirechtlicher Rahmen -- I. Einordnung in die Gefahr-Dogmatik -- 1. Konkrete Gefahr -- 2. Gefahrverdacht -- 3. Risikoscore als konkrete Gefahr? -- a) Gegenargumente -- b) Quantifizierbarkeit von normativen Abwägungsentscheidungen -- 4. Risikoscore als Gefahrverdacht? -- 5. Risikoscore als ein tatsächlicher Anhaltspunkt -- 6. Zwischenergebnis -- II. Fehler der Risikoscoreerstellung -- III. Ermächtigungsgrundlage -- 1. Erforderlichkeit einer Ermächtigungsgrundlage -- 2. Vorliegen einer Ermächtigungsgrundlage -- a) Standardbefugnisse , aa) Rasterfahndung -- (1) Errichten eines PPP-Systems -- (2) Erzeugen eines Risikoscores -- (a) "Stehendes" System -- (b) "Muster" statt Datenbestand -- (c) Neues Datum -- (d) Erhöhte Intransparenz -- bb) Generalklauseln der Datenspeicherung und Weiterverarbeitung -- (1) Datenspeicherung in automatisierten Dateisystemen -- (2) Datenverarbeitung und Datenabgleich -- (a) Datenverarbeitung -- (b) Datenabgleich -- cc) Automatisierte Anwendung zur Datenanalyse -- b) Allgemeine polizeirechtliche Generalklausel -- c) Datenschutzrecht -- d) Fluggastdatengesetz -- 3. Neue Standardbefugnis -- B. Verfassungsrechtlicher Rahmen -- I. Informationelle Selbstbestimmung -- 1. Umfang -- a) Entscheidung über die Preisgabe und Verwendung persönlicher Daten -- b) Geschützte Daten -- c) Verbot der Persönlichkeitsprofilbildung -- d) Gemeinwohldimension und Einschüchterungseffekte -- 2. Grenzen und Verhältnismäßigkeit -- 3. Konkrete Anforderungen des Rechts auf informationelle Selbstbestimmung an PPP -- a) Vorliegen einer hohen Eingriffsintensität -- aa) Heimlichkeit und Mangel an Transparenz -- bb) Streubreite -- cc) Automatisierung -- dd) Nähe zu Persönlichkeitsprofilen -- ee) Stigmatisierung -- b) Folgen einer hohen Eingriffsintensität -- aa) Hinreichend gewichtige Straftaten -- bb) Konkrete Gefahr -- (1) Anforderung des BVerfG zur Rasterfahndung -- (2) Kein Absenken der Eingriffsschwelle unter eine konkrete Gefahr -- c) Organisations- und Verfahrensvorgaben -- 4. Zusammenfassung -- II. Diskriminierungsverbot -- 1. Einführung -- 2. Quellen algorithmischer Diskriminierung -- a) Datenauswahlprozesse -- b) Festlegung der Zielvariablen -- c) Auswahl der Inputvariablen -- d) Kalibrierung und Überwachung des Lernprozesses -- 3. Rechtliche Einordnung -- a) Gleichheitssätze -- aa) Besondere Gleichheitssätze -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung , bb) Allgemeiner Gleichheitssatz -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung -- b) Besonderheiten im Rahmen von PPP -- aa) Erkennen einer Ungleichbehandlung -- bb) Ausdifferenzierte Fallgruppen der Ungleichbehandlung -- cc) Statistische Rechtfertigungen -- (1) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 3 S. 1 GG -- (a) Argument des "Rational Racism" -- (b) Argument des "kleineren Übels" -- (2) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 1 GG -- 4. Fazit zum Diskriminierungsverbot -- III. Transparenzgebot -- 1. Exkurs: Janusköpfigkeit des Blackbox-Narrativs -- 2. Drei Schichten der Intransparenz -- a) Begriffsklärung -- aa) Unzugänglichkeit qua Geheimhaltung -- bb) Unzugänglichkeit qua fehlendem Fachwissen -- cc) Unzugänglichkeit qua systemimmanenter Komplexität -- (1) Fallbasierte algorithmische Entscheidungssysteme -- (2) Regelbasierte algorithmische Entscheidungssysteme -- (3) Beispiele -- (4) Lösungsansätze: "Explainable AI" -- b) Fazit zu Transparenzschichten -- 3. Transparenzmechanismen -- a) Erste Transparenzdimension: Zeitpunkt der Offenlegung -- b) Zweite Transparenzdimension: Zur Einsichtnahme berechtigter Personenkreis -- aa) Subjektiv Betroffene -- (1) Einzelperson -- (2) Kollaboratives Crowdsourcing -- bb) Staatliche Kontrollinstitution -- (1) Mögliche Ausgestaltungen -- (2) Personelle Ausstattung -- (3) Organisatorisch-strukturelle Überlegungen -- (4) Fazit zu staatlichen Kontrollinstitutionen -- cc) Breite Öffentlichkeit -- dd) Fazit zum zur Einsichtnahme berechtigten Personenkreis -- c) Dritte Transparenzdimension: Umfang der Offenlegung -- aa) Abstrakte Informationen -- (1) Existenz und Einsatz im Einzelfall -- (2) Abstrakte Wirkungsprinzipien -- (3) Quellcode -- (4) Output-Testing -- (5) Protokollierungspflichten der Designphase -- bb) Begründung im Einzelfall -- cc) Fazit zum Transparenzgebot , 4. Argumente gegen Transparenz -- a) Unmöglichkeit von Transparenz -- b) Unnötigkeit von Transparenz -- aa) "Human in the Loop" -- bb) Vergleich mit bereits bestehender Intransparenz -- c) Überwiegen konkurrierender Interessen -- aa) Betriebsgeheimnis -- bb) Ausspähung des Algorithmus -- cc) Datenschutz Dritter -- dd) Fazit zum Überwiegen konkurrierender Interessen -- d) Fazit zu Argumenten gegen Transparenz -- 5. Rechtliche Verortung des Transparenzgebots -- a) Einfachgesetzlich -- aa) Datenschutzrecht -- bb) Informationsfreiheitsgesetze -- cc) Verwaltungsprozessrecht -- b) Verfassungsrecht -- aa) Menschenwürdekern des Rechts auf informationelle Selbstbestimmung -- bb) Demokratieprinzip -- (1) Legitimationskette -- (2) Demokratische Willensbildung -- (3) Demokratische Kontrolle -- cc) Rechtsstaatsprinzip -- 6. Fazit zum Transparenzgebot -- IV. Unschuldsvermutung -- C. Strafprozessuale Betrachtung: Umwidmung zum Tatermittlungswerkzeug -- I. Vorüberlegungen -- 1. Keine Beweisgeeignetheit -- 2. Zweifelhafte Aufklärungsgeeignetheit als Spurenansatz -- 3. Keine Ermittlungen "ins Blaue hinein" -- 4. Konkreter Ermittlungsansatz -- II. "Doppeltüren" der Datenweiterverarbeitung -- 1. Doppeltür: gefahrenabwehrrechtliche Seite -- 2. Doppeltür: strafprozessuale Seite -- a) 98 c S. 1 StPO: maschineller Abgleich von Daten -- aa) Fehlen besonderer Eingriffsschwellen -- bb) Keine Anwendbarkeit auf PPP -- b) 161 Abs. 2 StPO: katalogabhängige Maßnahmen der Datenerhebung -- c) 161 Abs. 1, 163 Abs. 1 StPO: Ermittlungsgeneralklausel -- aa) Vergleich mit der Onlinedurchsuchung vor 2017 -- (1) e. A. Zulassen der Verwendung als Spurenansatz -- (2) a. A. Ablehnung jeglicher Verwertung -- bb) Übertragung auf PPP -- III. Fazit zur Umwidmung zum Tatermittlungswerkzeug -- D. Fazit zum Kapitel II. Rechtliche Grenzen , Kapitel III. Algorithmische Wende in der Kriminalitätskontrolle - kriminologische, soziologische und rechtstheoretische Analyse
    Additional Edition: Erscheint auch als Druck-Ausgabe Sommerer, Lucia Personenbezogenes Predictive Policing : Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose Baden-Baden : Nomos Verlagsgesellschaft,c2020 ISBN 9783848762330
    Language: German
    Subjects: Law
    RVK:
    Keywords: Deutschland ; Gefahrenabwehr ; Verbrechenskontrolle ; Täter ; Kriminalprognose ; Algorithmus ; Informationelles Selbstbestimmungsrecht ; Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 4
    Book
    Book
    Frankfurt am Main :Fachmedien Recht und Wirtschaft, dfv Mediengruppe,
    UID:
    (DE-602)almahu_BV046077840
    Format: 201, XXV Seiten.
    ISBN: 978-3-8005-1707-7 , 3-8005-1707-8
    Series Statement: @kit-Schriftenreihe
    Note: Dissertation Westfälische Wilhelms-Universität Münster 2018
    Language: German
    Subjects: Law
    RVK:
    Keywords: Datenanalyse ; R ; Statistische Analyse ; Unternehmen ; Fehler ; Haftung ; Recht ; Big Data ; Datenanalyse ; Computerunterstütztes Verfahren ; Prognosefehler ; Haftung ; Hochschulschrift ; Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. Further information can be found on the KOBV privacy pages