Your search history is empty.
feed icon rss

Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
  • 1
    UID:
    b3kat_BV048324569
    Format: 1 Online-Ressource (322 Seiten)
    Edition: 1st ed
    ISBN: 9783161615122
    Series Statement: BnGG
    Note: Cover -- Titel -- Vorwort -- Inhaltsübersicht -- Inhaltsverzeichnis -- Abkürzungsverzeichnis -- Einleitung -- Erstes Kapitel: Digitalisierung der öffentlichen Hand -- A. Phänomenologie der Digitalisierung der öffentlichen Hand -- I. Digitalisierung bei der Legislative -- II. Digitalisierung bei der Exekutive -- III. Digitalisierung bei der Judikative -- IV. Zwischenfazit -- B. Informationstechnologische Vergewisserung -- I. Terminologie -- 1. Der Begriff der Digitalisierung -- 2. Der Begriff des Algorithmus -- a) Begriffsbestimmung -- b) Darstellungsweisen eines Algorithmus -- aa) Darstellung eines Algorithmus als Flussdiagramm beziehungsweise Programmablaufplan -- bb) Textuelle Beschreibung eines Algorithmus beziehungsweise Darstellung als Code -- c) Voraussetzungen einer algorithmischen Entscheidungsfindung -- 3. Der Begriff der Künstlichen Intelligenz -- a) Begriffsbestimmung -- b) Maschinelles Lernen -- 4. Der Begriff des Legal Robot -- a) Begriffsverständnis -- b) Beispiele von Legal Robots -- c) Zuordnung von Legal Robots in die Kategorie der Legal Tech -- 5. Der Begriff der Automation, der Automatisierung und des vollständig durch automatische Einrichtungen erlassenen Verwaltungsaktes -- II. Übersetzung von Handlungsanweisungen in menschlicher Sprache in die Maschinensprache -- 1. Übersetzung eines Algorithmus -- 2. Fehlererkennung im Übersetzungsvorgang: Syntaxfehler und Typfehler -- III. Ausblick in die Quantentechnologie -- IV. Zwischenfazit -- C. Elektronische Datenverarbeitung bei der Verwaltung und technische Erzeugung von Verwaltungsentscheidungen -- I. Digitale Anwendbarkeit von Gesetzen in Form von Programmablaufplänen - Programmablaufpläne des Bundesministeriums der Finanzen , II. Erlass von Verwaltungsakten ohne personelle Bearbeitungsschritte im Besteuerungsverfahren - Gesetz zur Modernisierung des Besteuerungsverfahrens (StModG) -- 1. Ausschließlich automationsgestützt erlassener oder korrigierter Steuerbescheid als Leitbild der Steuerfestsetzung -- 2. Einsatz von Risikomanagementsystemen zur ausschließlich automationsgestützten Bearbeitung von dazu geeigneten Steuererklärungen -- a) Rechtsgrundlage des Risikomanagementsystems im Besteuerungsverfahren -- b) Funktionsweise des Risikomanagementsystems -- c) Zwischenfazit -- III. Wandel des Vollzugs von Gesetzen durch menschliche Überprüfung hin zu vollständig automatisiert erlassenen Verwaltungsakten - 35a VwVfG und 31a SGB X -- IV. Zwischenfazit -- Zweites Kapitel: Chancen und Risiken der technischen Erzeugung von Verwaltungsentscheidungen -- A. Chancen der technischen Erzeugung von Verwaltungsentscheidungen -- B. Strukturelle Unterschiede zwischen Mensch und Informationstechnik -- I. Entscheidungshoheit, Determiniertheit von Entscheidungen und Fähigkeit zur Reflexion -- 1. Differenzierung zwischen nicht lernenden und (selbst)lernenden Algorithmen -- a) Nicht lernender Algorithmus -- b) Lernender Algorithmus -- c) Zwischenfazit -- 2. Fähigkeit zur Reflexion -- II. Kognitive Fähigkeiten -- 1. Wissenserlangung und Erkenntnismöglichkeiten -- 2. Entscheidungsfindung -- a) Heuristische Entscheidungsfindung -- b) Transparente und objektive Entscheidungsfindung -- aa) Transparenz -- bb) Objektivität -- (1) Nicht lernender Algorithmus -- (2) Lernender Algorithmus -- (3) Zwischenfazit -- c) Entscheidungsfindung am Maßstab der Gerechtigkeit, Mitmenschlichkeit und Billigkeit -- 3. Zwischenfazit -- III. Entscheidungen bei der Anwendung von Gesetzen -- 1. Gesetzesanwendung nach dem Syllogismus der Rechtsfolgebestimmung , a) Auslegung des gesetzlichen Tatbestands ohne Wertungsraum - deskriptive und bestimmte Tatbestandsmerkmale oder konsistente Gesetzesauslegung durch die Verwaltung -- aa) Keine herkömmliche Gesetzesauslegung durch informationstechnische Systeme -- bb) Darstellung eines gesetzlichen Tatbestands als Flussdiagramm (Algorithmisierbarkeit deskriptiver und bestimmter Tatbestandsmerkmale) -- cc) Gesetzlicher Tatbestand ohne Wertungsraum - bestimmte und deskriptive Rechtsbegriffe -- dd) Konsistente Auslegung der Gesetze durch Verwaltungsvorschriften oder Selbstbindung der Verwaltung -- b) Bildung des Untersatzes des Syllogismus der Rechtsfolgebestimmung und Subsumtion ohne Wertungsraum -- aa) Herkömmliche Bildung und rechtliche Beurteilung des Sachverhalts -- bb) Bildung und rechtliche Beurteilung des Sachverhalts durch informationstechnische Systeme -- (1) Risikomanagementsysteme zur ausschließlich automationsgestützten Bearbeitung von dazu geeigneten Steuererklärungen ( 88 Abs. 5 AO) -- (2) Programmablaufpläne des Bundesministeriums der Finanzen -- (3) Möglicher Einsatz von Legal Robots -- (a) Feststellung des sich tatsächlich so zugetragenen Sachverhalts - Begrenzte Kenntnis durch Datenabhängigkeit des Algorithmus -- (b) Würdigung des Sachverhalts, der die Merkmale des Obersatzes enthält beziehungsweise Subsumtion - keine Kenntnis des gesetzlichen Obersatzes -- (c) Würdigung des Sachverhalts, der die Merkmale des Obersatzes enthält beziehungsweise Subsumtion - notwendige Konkretisierung wertausfüllungsbedürftiger Begriffe und Möglichkeit der rechtsprechungs- oder verwaltungsakzessorischen Rechtsanwendung -- (4) Zwischenfazit -- c) Rechtsfolgenseite ohne Wertungsraum - Gebundene Entscheidung oder konsistente Ermessensausübung durch die Verwaltung -- aa) Keine Ermessensausübung durch informationstechnische Systeme , (1) Determinierter Algorithmus ohne antizipierte Ermessensausübung -- (2) Lernender Algorithmus -- (3) Zwischenfazit -- bb) Konsistente Ausübung des Ermessens durch Verwaltungsvorschriften oder Selbstbindung der Verwaltung -- 2. Zusammenfassung -- IV. Zwischenfazit -- C. Weitere Risiken durch die technische Erzeugung von Verwaltungsentscheidungen -- I. Risiko eines fehlerhaften Massenvollzugs, der Intransparenz staatlichen Handelns, der reduzierten Überprüfbarkeit von Verwaltungsentscheidungen und der unzulänglichen Beteiligung der Betroffenen im Verwaltungsverfahren durch die Funktionsweise des Algorithmus -- II. Risiko der rechtswidrigen und fehlerhaften Profilbildung des Einzelnen und Risiko für Datenschutz und Datensicherheit durch die Datenabhängigkeit des Algorithmus -- III. Sonstige Risiken -- IV. Zwischenfazit -- Drittes Kapitel: Das Recht auf menschliche Entscheidung im Grundgesetz -- A. Bisherige Schutzbestrebungen im positiven Recht -- I. Landesverfassung der Freien Hansestadt Bremen -- II. Datenschutzgrundverordnung und Bundesdatenschutzgesetz -- 1. Art. 22 DS-GVO -- 2. 54 Abs. 1 BDSG -- III. Europäische Grundrechte -- 1. Charta der Grundrechte der Europäischen Union -- 2. Entwurf einer Charta der digitalen Grundrechte der Europäischen Union -- IV. Zwischenfazit -- B. Rechtsprechung des Bundesverfassungsgerichts in Bezug auf die Informationstechnologie -- I. "Digitalisierungsgrundrechte" nach dem Urteil Volkszählung und dem Urteil Online-Durchsuchung -- 1. Urteil Volkszählung -- 2. Urteil Online-Durchsuchung -- 3. Zwischenfazit -- II. Urteil Wahlcomputer -- III. Urteil Auslandsüberwachung durch den BND -- IV. Zwischenfazit -- C. Vorgaben des Grundgesetzes für die technische Erzeugung von Verwaltungsentscheidungen -- I. Gesetzmäßigkeit des Verwaltungshandelns, Art. 20 Abs. 3 GG -- 1. Bindung an das Gesetz im Sinne des Art. 20 Abs. 3 GG. , a) Charakter von Verwaltungsalgorithmen -- b) Notwendige parlamentsgesetzliche Ermächtigung -- 2. Wesentlichkeit als äußerste Grenze der technischen Entscheidungsfindung -- 3. Gesetzesanwendung im Wege des Syllogismus der Rechtsfolgebestimmung -- a) Gebundene Verwaltungsentscheidungen -- aa) Auslegung des Gesetzes durch informationstechnische Systeme -- bb) Bildung des Untersatzes durch informationstechnische Systeme -- cc) Zwischenfazit -- b) Entscheidungsfreiheit der Verwaltung durch Ermessensvorschriften -- 4. Keine fallakzessorische algorithmische Entscheidung sine lege, extra legem oder contra legem -- 5. Zusammenfassende Schlussfolgerung: Notwendigkeit einer menschlichen Entscheidung zur Wahrung der Gesetzmäßigkeit -- II. Amtsermittlungsgrundsatz und Grundsatz des fairen Verwaltungsverfahrens, Art. 20 Abs. 3 GG (Rechtsstaatsprinzip) i. V. m. Art. 2 Abs. 1 GG beziehungsweise Art. 1 Abs. 1 GG -- 1. Sorgfältige Ermittlung entscheidungserheblicher Tatsachen nach dem Grundsatz des fairen Verwaltungsverfahrens und dem Amtsermittlungsgrundsatz -- 2. Recht auf Verfahrensbeteiligung nach dem Grundsatz des fairen Verwaltungsverfahrens -- III. Weitere materiell-rechtliche Vorgaben der Verfassung -- IV. Zwischenfazit -- Viertes Kapitel: Kategorien technisch erzeugbarer Verwaltungsentscheidungen -- A. Vollständig technisch erzeugbare Entscheidung unter Ausschluss des Menschen -- I. Gesetzmäßigkeit des Verwaltungshandelns, behördliche Ermittlungspflichten und Verfahrensbeteiligung des Betroffenen -- II. Weitere materiell-rechtliche Vorgaben der Verfassung -- III. Beispiel einer vollständig technisch erzeugbaren Entscheidung unter Ausschluss des Menschen -- B. Automationsgeleitete menschliche Entscheidung und automationsgestützte menschliche Entscheidung , I. Gesetzmäßigkeit des Verwaltungshandelns, behördliche Ermittlungspflichten und Verfahrensbeteiligung des Betroffenen
    Additional Edition: Erscheint auch als Druck-Ausgabe Mund, Dorothea Das Recht auf menschliche Entscheidung Tübingen : Mohr Siebeck,c2022 ISBN 9783161615115
    Language: English
    Subjects: Law
    RVK:
    RVK:
    RVK:
    Keywords: Deutschland ; Verwaltungsautomation ; Entscheidungsunterstützung ; Beschränkung ; Gesetzmäßigkeit der Verwaltung ; Persönlichkeitsrecht ; Menschenwürde ; Deutschland ; Verwaltungsverfahren ; Digitalisierung ; Automation ; Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 2
    UID:
    kobvindex_ERBEBC7179043
    Format: 1 online resource (285 pages)
    Edition: 1
    ISBN: 9783428586615
    Series Statement: Schriften zum Sozial- und Arbeitsrecht
    Note: Intro -- Vorwort -- Inhaltsübersicht -- Inhaltsverzeichnis -- Einführung -- A. Digitale Weisungen als Herausforderung für das analoge (Arbeits-)‌Recht -- B. Relevanz im Spannungsfeld der Digitalisierungsdebatte -- C. Gang und Tiefe der Untersuchung -- D. Begriffsbestimmungen und technischer Hintergrund -- I. Funktionsweise algorithmischer Entscheidungen -- 1. Schlüsselbegriff Algorithmus aus rechtlicher Perspektive -- 2. Lernende Systeme -- 3. Methoden maschinellen Lernens -- 4. Algorithmische und menschliche Entscheidungen im Vergleich -- a) Determiniertheit und Neutralität -- b) Korrelation und Typisierung -- c) Selbstreflexion und Nachvollziehbarkeit -- II. Digitale Weisungen als Gegenstand der Untersuchung -- Erster Teil: Digitale Weisungen in Praxis und Rechtskontext -- Erster Abschnitt: Praktische Relevanz digitaler Weisungen -- A. Algorithmische Systeme und digitale Weisungen in Unternehmen -- B. Einsatzfelder im Einzelnen -- I. Personaleinsatzplanung -- 1. SAP Field Service Management: Außendiensteinsatzplanung -- 2. KapaflexCy: Kapazitätsplanung von Personaleinsatz -- 3. Schichtpläne mit Planungsautomatik -- 4. Game of Roster: kollaborative Dienstplanung in der Pflege -- II. Anweisung zu einzelnen Arbeitsschritten -- 1. Hitachi: Anweisende Künstliche Intelligenz -- 2. SAP Extended Warehouse Management und SSI SCHÄFER: automatisch koordinierte Kommissionierung -- 3. MotionEAP: inklusive Produktionsassistenz -- 4. Fahrdienstanbieter: vorgegebene Routenplanung -- a) MOIA: Ridesharing mithilfe von Algorithmen -- b) Lyft: Risiko des blinden Vertrauens auf Routenvorgaben -- C. Perspektiven algorithmischer Entscheidungsfindung -- I. IBM Project Debater: automatisierte Argumentation -- II. Value Judgement Argumentative Prediction (VJAP): juristische Werturteile -- D. Allgemeine, mit digitalen Weisungen verbundene Herausforderungen , Zweiter Abschnitt: Vergleichbare Phänomene -- A. E-Recruiting -- I. Bewerbervorauswahl mittels Automatisierung -- II. Diskriminierungspotential -- III. Lösungsvorschläge in der Literatur -- IV. Vergleich mit digitalen Weisungen -- V. Zwischenergebnis -- B. Algorithmischer Handel an Kapitalmärkten -- I. Merkmale des algorithmischen und des Hochfrequenzhandels -- II. Gesetzlicher Rahmen für den algorithmischen Handel -- III. Übertragbarkeit des Regelungskonzepts auf digitale Weisungen? -- IV. Zwischenergebnis -- C. Organentscheidungen durch Algorithmen -- I. Entscheidungsunterstützung bei Organentscheidungen -- 1. Lösungsansätze in der Rechtsliteratur -- 2. Insbesondere: für anwendbar gehaltene Regelungskonzepte -- II. Vergleich mit digitalen Weisungen -- III. Zwischenergebnis -- D. Automatisierte Verwaltungsakte -- I. Gesetz zur Modernisierung des Besteuerungsverfahrens -- 1. Vollständig automatisierter Erlass eines Verwaltungsaktes -- 2. Ergänzung des Untersuchungsgrundsatzes im automatischen Verfahren -- 3. Vereinbarkeit der Änderungen mit der DSGVO -- II. Ungeklärte Rechtsfragen -- III. Perspektiven automatisierter Verwaltungsentscheidungen -- IV. Zwischenergebnis -- E. Ergebnis der Vergleichserwägungen -- I. Belastbare Datengrundlage als Grundvoraussetzung -- II. Kontrolle durch Verfahrensrahmen -- III. Korrelation zwischen Regelungstiefe, Entscheidungsspielraum und Stand der Technik -- IV. Intransparenz und Erfordernis von Responsivität -- Zweiter Teil: Implementierung digitaler Weisungen im Betrieb -- A. Typisches Vorgehen bei dem Erwerb von Software -- B. Beteiligung des Betriebsrats bei der Implementierung digitaler Weisungen -- I. Beratung über geplante Betriebsänderungen -- II. Beratung über die Planung von technischen Anlagen und Arbeitsverfahren -- III. Zwingende Mitbestimmung bei technischen Einrichtungen , C. Sachverstand des Betriebsrats -- D. Ergebnis -- E. Handlungsempfehlungen -- Dritter Teil: Verbot automatisierter Entscheidungen im Einzelfall, Art. 22 DSGVO -- A. Anlass und Zielsetzung des Verbots -- B. Verbotstatbestand -- I. Verarbeitung und Bewertung persönlicher Merkmale -- 1. Verarbeitung persönlicher Aspekte -- 2. Insbesondere: Profiling -- II. „Unterworfensein" unter eine Einzelentscheidung -- III. Ausschließlich auf einer Automatisierung beruhende Entscheidung -- IV. Erhebliche Wirkung der Entscheidung -- 1. Meinungsströmungen in der Literatur -- 2. Wirkung von Weisungsentscheidungen -- a) Einzelweisung als Willenserklärung mit rechtlicher Wirkung -- b) Mittelbare Folgen als erhebliche Beeinträchtigung -- V. Eine Frage des Risikos? -- VI. Zwischenergebnis: Verstoß mit Einschränkungen -- C. Ausnahmetatbestände -- I. Zulässigkeit aufgrund von Rechtsvorschriften -- II. Erforderlichkeit für die Vertragserfüllung -- III. Ausdrückliche Einwilligung der betroffenen Person -- 1. Prüfungsmaßstab -- 2. Voraussetzungen im Einzelnen -- 3. Praktikabilität und Kritik am Institut der Einwilligung -- IV. Begleitende Schutzmaßnahmen -- 1. Recht auf Anfechtung der Entscheidung -- 2. Recht auf Darlegung des eigenen Standpunkts -- 3. Recht auf Eingreifen einer Person -- 4. Faire und transparente Verarbeitung -- V. Zwischenergebnis: unsichere Rechtfertigungslage -- D. Erlaubnis auf Grundlage von Kollektivvereinbarungen -- E. Ergebnis -- Vierter Teil: Transparenz der Entscheidungsfindung -- A. Grundlagen und Bedeutung von Transparenz -- I. Nutzen von Transparenz -- II. Menschliche versus technische Entscheidungen -- B. Transparenz als Voraussetzung von Billigkeit -- C. Anspruch des Arbeitnehmers auf Auskunft über Billigkeitsaspekte -- D. Unterrichtungsrechte des Betriebsrats -- I. Unterrichtung über Planungen nach 90 BetrVG , II. Unterrichtung über die Personalplanung nach 92 BetrVG -- III. Weitere Unterrichtungsrechte -- IV. Zwischenergebnis -- E. Datenschutzrechtliche Transparenzanforderungen -- I. Durch „automatisierte Entscheidungen" begrenzter Anwendungsbereich -- II. Zeitpunkte der Transparenzpflichten als Rückschluss auf deren Inhalt? -- III. Reichweite der Transparenzpflichten -- 1. Aussagekräftige Informationen über die involvierte Logik -- 2. Tragweite und angestrebte Auswirkungen -- 3. Erklärung von Entscheidungen lernender Systeme -- IV. Zwischenergebnis -- F. Ergebnis -- Fünfter Teil: Grenzen des Weisungsrechts, insbesondere Billigkeit -- A. Zurechenbarkeit als Weisung des Arbeitgebers -- B. Billigkeit digitaler Weisungen -- I. Billigkeitsmaßstab im Überblick -- 1. Konkurrenz zu anderen Maßstäben -- 2. Billigkeitskriterium in seiner Auslegung durch die Rechtsprechung -- 3. Problem des variablen Maßstabs -- II. Realisierung von Billigkeit bei digitalen Weisungen -- 1. Informationsgrundlage -- 2. Abwägungsvorgang -- III. Zwischenergebnis -- C. Ausgewählte Herausforderungen digitaler Massenweisungen -- I. Selbstbindung des Arbeitgebers und Redundanz -- II. Einander widersprechende Weisungen -- III. Rechtswidrige und unbillige Weisungen -- D. Ergebnis -- Sechster Teil: Responsivität -- A. Begriffsherkunft und -bedeutung -- I. Responsivität als multidisziplinärer Fachbegriff -- 1. Responsivität als Reaktion und Anpassung -- 2. Responsivität als Interaktion mit Sachen -- 3. Responsivität als Rückkoppelung zwischen Wähler und Gewähltem -- II. Folgerungen für Responsivitätsbegriff bei Weisungen -- B. Responsivität wegen der Rechtsnatur von Weisungen -- I. Rechtsnatur des Weisungsrechts -- II. Rechtsnatur der Einzelweisung -- III. Zwischenergebnis: Responsivität als kommunikatives Erfordernis -- C. Responsivität als Erfordernis des Individualarbeitsrechts , I. Mitteilung der Weisungsempfangsbereitschaft -- II. Hinweis bei Nichtbefolgung unbilliger Weisungen -- D. Responsivität als Erfordernis des Kollektivarbeitsrechts -- I. Zwingende Mitbestimmung des Betriebsrats in sozialen Angelegenheiten -- 1. Verfahren und Ausübungsformen der Mitbestimmung -- 2. Zwingende Mitbestimmung in Fragen der Arbeitszeit -- a) Beginn und Ende der täglichen Arbeitszeit -- b) Vorübergehende Verkürzung und Verlängerung der Arbeitszeit -- c) Verzicht auf Responsivität durch Auslegung von bestehenden Rahmenvereinbarungen -- d) Zwischenergebnis: Mitbestimmungsverfahren fordert Responsivität -- 3. Responsivitätserfordernis aus dem Zweck der Mitbestimmung? -- a) Der Streit um die Zwecke der Mitbestimmung -- b) Teilhabegedanke im Sinne eines argumentativen Austauschs -- c) Zwischenergebnis: Teilhabegedanke fordert Responsivität -- II. Beratungsrecht des Betriebsrats in der Personalplanung -- 1. Rechte des Betriebsrats aus 92 Abs. 1 und 2 BetrVG -- 2. Responsivitätserfordernis bei Weisungen mit Veränderungspotential -- 3. Zwischenergebnis -- E. Responsivität als Erfordernis des Datenschutzrechts -- F. Realisierung von Responsivität -- I. Analoges Szenario als Ausgangspunkt -- II. Umgang des Menschen mit technischer Handlungsträgerschaft -- 1. Umgang mit „neuer" Technik -- 2. Stufen von Interaktion und Handlungsträgerschaft -- III. Einführung und Gewährleistung responsiver digitaler Weisungen -- 1. Menschenzentrierter Ansatz als Entwicklungsleitlinie -- 2. Konkrete Ausgestaltung der Interaktion -- a) Responsivität in der technischen Realisierung -- b) Konzept der verteilten Handlungsträgerschaft -- c) Responsivität als Forderung nach einem menschlichen Entscheider -- aa) Eingabe des Vorbringens -- bb) Bearbeitung des Vorbringens -- d) Menschenvorbehalt für digitale Weisungen? -- e) Bestimmung des (richtigen) Interaktionspartners , 3. Zwischenergebnis
    Additional Edition: Print version: Knitter, Philipp Digitale Weisungen. Berlin : Duncker & Humblot,c2022 ISBN 9783428186617
    Keywords: Electronic books.
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 3
    UID:
    kobvindex_ERBEBC7261356
    Format: 1 online resource (202 pages)
    Edition: 1
    ISBN: 9783428587063
    Series Statement: Abhandlungen zum Deutschen und Europäischen Gesellschafts- und Kapitalmarktrecht
    Note: Intro -- Vorwort -- Inhaltsverzeichnis -- Abkürzungsverzeichnis -- Einleitung -- A. Konkretisierung des Forschungsgegenstandes und Ziele der Untersuchung -- B. Gang der Untersuchung -- Erster Teil: Grundlagen der Künstlichen Intelligenz -- A. Allgemeines -- I. Definition des Begriffs Künstliche Intelligenz -- II. Zur anthropomorphen und metaphorischen Sprache in der Arbeit -- III. Entwicklung der Künstlichen Intelligenz -- IV. Über „schwache KI" und „starke KI" -- B. Grundzüge der Funktionsweise der in der Arbeit betrachteten KI in Form der (Software-)Agenten -- I. Grundfunktion des Agenten und Agentenumgebung -- 1. Agentenumgebung -- 2. Agentenprogramme -- a) Einfacher Reflexagent -- b) Modellbasierter Reflexagent -- c) Zielbasierter Agent -- d) Utilitaristischer Agent -- II. Lernfähigkeit der Agenten -- 1. Grundzüge des Machine Learnings -- 2. Lernstruktur eines lernenden Agenten -- 3. Grundzüge der Lernsysteme und Lernverfahren -- a) Supervised Learning -- b) Unsupervised Learning -- c) Lernverfahren -- aa) Supervised Learning: Klassifikation -- bb) Unsupervised Learning: Clustering -- cc) Künstliche Neuronale Netze -- C. Zusammenfassung der für die rechtliche Bewertung wesentlichen KI-spezifischen Besonderheiten -- Zweiter Teil: KI und der Einsatz als Substitut des Vorstands der Aktiengesellschaft -- A. KI als Vorstandsmitglied einer Aktiengesellschaft? -- I. Anforderungen an den Vorstand und Anwendung auf KI -- 1. Voraussetzungen aus  76 Abs. 3 AktG -- a) Keine juristische Person als Vorstandsmitglied -- aa) Kompensationsaspekt und haftungsrechtliche Steuerungswirkung in Verbindung mit  93 AktG -- (1) Kompensationsaspekt -- (2) Verhaltenssteuerungsfunktion des  93 AktG -- (3) Zwischenergebnis -- bb) Beeinträchtigung der Geschäftsführung und Unternehmenspolitik -- cc) Beeinträchtigung der Handlungsfähigkeit der Geschäftsleitung , dd) Verschiebung der Personalkompetenz -- ee) Zwischenergebnis -- 2. Voraussetzungen aus  76 Abs. 1 AktG -- a) Beeinträchtigung der Weisungs- und Willensfreiheit -- b) Beeinträchtigung des Gebots der Gleichberechtigung im Vorstand -- c) Zwischenergebnis -- 3. Voraussetzungen aus der Person des Vorstands und der Vorstandspraxis -- a) Persönliche Voraussetzungen an den Vorstand der AG -- b) Geschäftsleitung durch den Gesamtvorstand -- aa) Unternehmerische Funktion und Geschäftsleitung -- bb) Kommunikation und Arbeit im Kollegialorgan -- c) Zwischenergebnis -- 4. Voraussetzungen aus weiteren Normen des Aktiengesetzes -- a) Vertrauen in den Vorstand -- aa) Vertrauensbeziehungen in Bezug auf den menschlichen Vorstand -- bb) Vergleichbares Vertrauen in KI -- (1) Technikspezifisches Vertrauen -- (2) Vertrauen unter Berücksichtigung der technikspezifischen Bausteine im Vertrauensgeflecht des Vorstands -- (a) Vertrauen der Hauptversammlung in den KI-Vorstand -- (b) Vertrauen des Aufsichtsrats in den KI-Vorstand -- (c) Vertrauen anderer Vorstandsmitglieder in den KI-Vorstand -- (d) Vertrauen Dritter in den KI-Vorstand -- cc) Zwischenergebnis zum Vertrauen in einen KI-Vorstand -- b) Transparenz und Publizität -- aa) Transparenz und Publizität menschlicher Vorstandsmitglieder -- bb) Transparenz und Publizität von KI-Vorstandsmitgliedern -- cc) Zwischenergebnis -- 5. Allgemeine technikspezifische Hinderungsgründe -- a) Missbrauchspotenzial von KI-Vorstandsmitgliedern: Änderung der zulässigen Unternehmensgegenstände und -ziele? -- b) Erhöhte Haftungsrisiken bei Fehlleistung von KI-Vorständen -- c) Zusammenfassung allgemeiner technikspezifischer Hinderungsgründe -- 6. Zusammenfassung: Keine KI als Vorstandsmitglied -- II. Heute grundsätzlich keine KI als Vorstandsmitglied? -- III. Zusammenfassung zur KI als Vorstandsmitglied , Dritter Teil: Die Delegation durch den Vorstand der Aktiengesellschaft an KI -- A. Delegation an natürliche Personen -- I. Grundsätzliche Zulässigkeit der Aufgabendelegation durch den Vorstand -- II. Differenzierung in Leitungs- und Geschäftsführungsaufgaben -- III. Differenzierung der Reichweite der Delegation -- B. Delegation an Künstliche Intelligenz -- I. Kein grundsätzliches Verbot der Delegation an KI -- II. Delegation von Leitungs- und Geschäftsführungsaufgaben -- 1. Geschäftsführungsaufgaben -- 2. Leitungsaufgaben -- a) Delegation der Stufe 1: Vorbereitende und nachbereitende Tätigkeiten -- b) Delegation der Stufe 2: Ausführung der Aufgabe durch KI, Letztentscheidungsbefugnis des Vorstands -- aa) Meinungsstand -- bb) Kritische Stellungnahme -- (1) Zur Ansicht vom technischen Grundverständnis -- (a) Zur Sicherstellung der Steuerungsmacht -- (b) Zur Sicherstellung des Vorstandswillens - Überprüfbarkeit der Willenskongruenz -- (2) Zur Auffassung der Plausibilitätsprüfung -- (3) Zur Ansicht des Mindesteinflusses -- (4) Zur Auffassung der Grenzüberschreitung -- (5) Zusammenfassung zum Meinungsstand -- cc) Eigene Ansicht: Anforderungen an die Zulässigkeit der Delegation -- (1) Beständiger Informationsfluss -- (2) Mit arbeitsrechtlichem Weisungsrecht vergleichbare Einflussmöglichkeit und Reversibilität -- (3) Reversibilität der Aufgabenübertragung und jederzeitige „Kündigungsmöglichkeit" -- dd) Zusammenfassung -- c) Delegation der Stufe 3: Vollständige Aufgabenübertragung -- aa) Meinungsstand -- bb) Kritische Stellungnahme -- (1) Eigene Bewertung: Unzulässigkeit vollständiger Delegation -- (a) Informationsfluss des Vorstands -- (b) Mit arbeitsrechtlicher Weisung vergleichbare Steuerungsmöglichkeit -- (c) Reversibilität und jederzeitige Kündigungsmöglichkeit -- (d) Zwischenergebnis der Diskussion , (e) Andere Bewertung für spezialisierte Hochtechnologieunternehmen? (Diskussion der dritten Ansicht) -- (f) Zusammenfassung zu Hochtechnologieunternehmen -- (2) Zwischenergebnis -- III. Zusammenfassung zur Delegation an Künstliche Intelligenz -- C. Haftung des Vorstands nach  93 Abs. 2 Satz 1 AktG bei der Aufgabendelegation an KI -- I. Pflicht zur Auswahl, Einweisung und Überwachung bei zulässiger Aufgabendelegation an KI -- 1. Auswahlpflicht -- a) Zweistufige Geeignetheitsprüfung: 1. Qualifikationsprüfung des Herstellers durch den Vorstand -- b) Zweistufige Geeignetheitsprüfung: 2. Funktionalitätsprüfung der KI durch den Vorstand -- aa) Überprüfung der Daten und Datenqualität -- (1) Datenmenge und Datendiversifikation -- (2) Qualität der „Label" der Daten -- (3) „Legalität" der Daten -- bb) Überprüfung der Rahmenbedingungen und Algorithmen -- cc) Überprüfung der Kontinuität brauchbarer Ergebnisse -- dd) Art und Weise der Sicherstellung der Funktionalitätsprüfung durch den Vorstand -- c) Zusammenfassung zur Auswahlpflicht -- 2. Einweisungspflicht -- a) Einweisungsmaßstab bei KI-Delegataren -- aa) Verlagerung des Bezugszeitpunkts der Einweisung -- bb) Verlagerung des Bezugssubjekts der Einweisung -- cc) Konkrete Einweisungspflichten beim Einsatz von KI -- (1) Programmierung von Berichtspflichten der KI -- (2) Regelmäßige „Schulung und Fortbildung" der KI -- b) Zusammenfassung zur Einweisungspflicht -- 3. Überwachungspflicht -- a) Allgemeine Überwachungsparameter beim Einsatz von KI -- b) Herleitung spezifischer Überwachungspflichten beim Einsatz von KI -- aa) Kasuistik der Rechtsprechung und Literatur zu  130 OWiG -- (1) Einschreiten bei Verdachtsmomenten -- (2) Laufende Kontrolle -- (3) Organisationspflichten und mehrstufige Überwachung -- (4) Zusammenfassung -- bb) Analogie zu  80 Abs. 2 WpHG (zuvor:  33 Abs. 1a WpHG) , (1) Keine vergleichbare Interessenlage -- (a)  80 Abs. 2 WpHG als Ausnahmeregelung -- (b) Nicht vergleichbare Pflichtenlage -- (c) Unterschiedliche Zielsetzung und Schutzwürdigkeit -- (d) Unterschiedliche Beziehungen der betroffenen Akteure -- (2) Extraktion organisatorischer Grundanforderungen beim Einsatz von KI aus  80 Abs. 2 WpHG zur Konkretisierung der Überwachungspflichten des Vorstands -- (a) Zur Tauglichkeit der Vorschrift für den vorgesehenen Zweck der Konkretisierung -- (b) Extraktion organisatorischer Grundanforderungen aus  80 Abs. 2 WpHG -- c) Zusammenfassung und Formulierung eines Kanons der Überwachungspflichten beim Einsatz von KI -- II. Übertragbarkeit der ISION-Grundsätze bei „beratender KI" -- 1. Umfassende Darstellung der Verhältnisse der Gesellschaft und Offenlegung der erforderlichen Unterlagen -- 2. KI-Berater als fachlich qualifizierter Berufsträger -- a) „Berufsträger" -- aa) Interne Beratung -- bb) Externe Beratung -- b) „Fachliche Qualifikation" -- aa) Zweistufige Formalqualifikationsprüfung auch bei Beratung -- (1) Interne Beratung -- (2) Externe Beratung -- bb) Intensivierung der zweistufigen Qualifikationsprüfung bei KI-Beratung -- (1) Interne Beratung -- (2) Externe Beratung -- c) Zwischenergebnis zum Erfordernis des „fachlich qualifizierten Berufsträger" -- 3. Unabhängigkeit des KI-Beraters -- a) Grundsätzliche Unabhängigkeit von KI -- b) KI-spezifische Besonderheit: Mögliche „technische Unabhängigkeit" -- 4. Sorgfältige Plausibilitätskontrolle des KI-Rats -- a) Allgemeine Leitlinien für die Plausibilitätsprüfung -- b) Plausibilitätsprüfung bei KI-Beratern -- aa) Interne Beratung -- bb) Externe KI-gestützte Beratung -- 5. Zusammenfassung: Leitplanken beim Einholen von KI-Rat , 6. (Mittelfristige) Zukunft der KI-Beratung - Überlegungen zu einem Rechtsfortbildungsvorschlag unter Berücksichtigung ökonomischer und gesellschaftspolitischer Anforderungen
    Additional Edition: Print version: Calabro, Claudio Künstliche Intelligenz und Corporate Governance. Berlin : Duncker & Humblot,c2022 ISBN 9783428187065
    Keywords: Electronic books.
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 4
    UID:
    b3kat_BV048324103
    Format: 1 Online-Ressource (234 Seiten)
    Edition: 1st ed
    ISBN: 9783748932406
    Series Statement: Schriften zum Medien- und Informationsrecht v.62
    Note: Cover -- A. Einführung -- I. Untersuchungsgegenstand -- II. Methode und Gang der Untersuchung -- B. Grundlagen und Definitionen -- I. Suchmaschinen -- II. Algorithmen -- III. Algorithmusbasierte Suchmaschinen -- 1. Crawler -- 2. Indexer -- 3. Abfragemodul -- 4. PageRank-Algorithmus -- IV. Suchmaschinenmodelle -- V. Google als Suchmaschinenmodell -- C. Grundrechtliche Einordnung von Suchmaschinen -- I. Stand der Rechtsprechung -- 1. Europäische Rechtsprechung -- 2. Nationale Rechtsprechung -- 3. Fazit -- II. Weitergehender Grundrechtsschutz: Kommunikationsgrundrechte -- 1. Grundrechtsschutz nach Art. 11 Abs. 1 GRCh -- Art. 5 Abs. 1 Satz 1 Var. 1 bzw. Satz 2 Var. 1 oder 2 GG -- a) Genuiner Grundrechtsschutz gem. Art. 11 Abs. 1 Satz 2 GRCh -- Art. 5 Abs. 1 Satz 1 Var. 1 GG (Ergebnisliste) -- (1) Schutzbereich auf europäischer Ebene -- (2) Schutzbereich auf nationaler Ebene -- (b) Eigene Meinung -- (c) Zwischenfazit -- b) Genuiner Grundrechtsschutz gem. Art. 11 Abs. 1 Satz 2 GRCh -- Art. 5 Abs. 1 Satz 2 Var. 1 oder 2 GG (Vermittlungsprozess) -- (1) Schutzbereich auf europäischer Ebene -- (2) Schutzbereich auf nationaler Ebene -- (a) Allgemeinheit und Kommunikationsinhalte -- (b) Presse -- (c) Rundfunk -- (d) Abgrenzung -- (i) Notwendigkeit -- (ii) Bisherige Abgrenzung -- (iii) Fortentwicklung der Abgrenzungskriterien - Konvergenz der Medien -- (iv) Einheitliches Grundrecht der Medienfreiheit -- (3) Einordnung von Suchmaschinen -- (a) Allgemeinheit -- (b) Wirkungsweise -- (i) Rundfunk -- (ii) Presse -- (c) Zwischenfazit -- c) Annexgrundrechtsschutz nach Art. 11 Abs. 1 Satz 2 GRCh -- Art. 5 Abs. 1 Satz 2 Var. 1 GG (Vermittlungsprozess) -- (1) Begriffsbestimmung: "Annex" -- (2) Einordnung von Suchmaschinen -- (a) Kompatibilität der Sachverhalte -- (b) Medienbezug -- (c) Bindung -- (d) Notwendigkeit / Beschränkung bei staatlicher Regulierung , (3) Zwischenfazit -- d) Fazit -- 2. Google als Grundrechtsverpflichtete -- a) Unmittelbare Grundrechtsbindung -- b) Gesteigerte mittelbare Grundrechtswirkung -- c) Zwischenfazit -- III. Fazit -- D. Harmonisierung eines Abwägungssystems i.B.a. Auslistungsansprüche -- I. Medienprivileg -- II. Abwägungssysteme des Äußerungs- und Datenschutzrechts -- 1. Normative Verortung und allgemeine Strukturvorgaben der Rechtsprechung -- a) Äußerungsrecht -- (1) Nationale Ebene -- (a) Allgemeines Persönlichkeitsrecht -- (b) Abwägungsregeln -- (i) Verfassungsrechtliche Direktiven: Wortberichterstattung -- a. Tatsachenbehauptungen und Werturteile -- b. Betroffene Sphäre -- c. Abwägung mit dem Interesse der Öffentlichkeit (Vermutungsregel) -- (ii) Verfassungsrechtliche Direktiven: Bildberichterstattung -- (iii) Besonderheit: Äußerungen im Internet -- a. Internetspezifische Besonderheiten -- b. Abwägung -- (2) Europäische Ebene -- (3) Zwischenfazit -- b) Datenschutzrecht -- (1) Recht auf informationelle Selbstbestimmung -- (2) Abwägungsregeln -- (a) Art. 17 Abs. 3 lit. a DSGVO: Vorrang des Rechts auf Meinungs- und Informationsfreiheit? -- (b) Art. 17 Abs. 3 lit. b und c DSGVO: Vorrang des Rechts auf informationelle Selbstbestimmung? -- (c) Art. 6 Abs. 1 lit. e und f DSGVO -- (i) Art. 6 Abs. 1 lit. e DSGVO: Anwendbarkeit? -- (ii) Art. 6 Abs. 1 lit. f DSGVO: Vorrang des Rechts der Meinungs- und Informationsfreiheit? -- (d) Art. 21 DSGVO: Vorrang des Rechts auf informationelle Selbstbestimmung? -- (e) Sphärentheorie -- (f) Zwischenfazit -- 2. Urteilsanalyse zu Online-Medien/Intermediären -- (1) Äußerungsrecht -- (a) EGMR, Ents. v. 4.12.2018 - 62721/13 - Bild GmbH & -- Co KG vs. Germany -- Axel Springer AG vs. Germany -- (b) EGMR, Urt. v. 28.6.2018 - 60798/10 - M.L. und W.W. vs. Germany (Sedlmayr) -- (c) EGMR, Urt. v. 19.10.2017 - 71233/13 - Fuchsmann vs. Germany , (d) BVerfG, Beschl. v. 7.7.2020 - 1 BvR 146/17 - Verdachtsberichterstattung -- (e) BVerfG, Beschl. v. 6.11.2019 - 1 BvR 16/13 - Recht auf Vergessen I -- (e) BGH, Urt. v. 18.12.2018 - VI ZR 439/17 - Online-Pressearchiv IV -- (f) BGH, Urt. v. 22.2.2011 - VI ZR 114/09 - Online-Pressearchiv III -- (g) BGH, Urt. v. 9.2.2010 - VI ZR 243/08 - Online-Pressearchiv II -- (h) BGH, Urt. v. 15.12.2009 - VI ZR 227/08 - Online-Pressearchiv I -- (2) Datenschutzrecht -- (a) EuGH, Urt. v. 24.9.2019 - C-136/17 - Sensitive Data -- (b) EuGH, Urt. v. 13.5.2014 - C-131/12 - Google Spain -- (c) BGH, Beschl. v. 27.7.2020 - VI ZR 405/18 - Recht auf Vergessen I -- (3) Äußerungs- und Datenschutzrecht -- (a) BVerfG, Beschl. v. 6.11.2019 - 1 BvR 276/17 - Recht auf Vergessen II -- (b) BGH, Urt. v. 24.7.2018 - VI ZR 330/17 - Prüfpflicht Suchmaschinen -- (c) BGH, Urt. v. 27.2.2018 - VI ZR 489/16 - Internetforum -- (d) BGH, Urt. v. 20.2.2018 - VI ZR 30/17 - Jameda III -- (e) BGH, Urt. v. 12.10.2021 - VI ZR 488/19 - Jameda IV -- (f) Obergerichtliche Entscheidungen -- (4) Zusammenfassung -- (5) Kritische Auswertung der Urteilsanalyse -- 3. Literatur -- 4. Institutionelle Entscheidungspraxis -- a) Äußerungsrecht -- b) Datenschutzrecht -- 5. Fazit -- III. Vergleichbarkeit der Schutzgüter -- IV. Konkurrenzverhältnis Datenschutz- und Äußerungsrecht -- 1. Art. 85 Abs. 1 DSGVO als Öffnungsklausel vs. unionsweit harmonisiertes Abwägungssystem -- 2. Konkurrenzverhältnis zum Äußerungsrecht -- a) Art. 6 Abs. 1 lit. f DSGVO -- b) Art. 17 Abs. 3 lit. a DSGVO -- 3. Fazit -- V. Auswirkungen eines harmonisierten Abwägungssystems auf die Praxis -- 1. Grundsätzliche Auswirkung einer Harmonisierung -- 2. Exemplarische Übertragung des harmonisierten Abwägungssystems -- VI. Fazit -- E. Regulierung i.S.d. Persönlichkeitsrechtsschutzes -- I. Abstrakte Regulierungsbedürftigkeit , II. Konkrete Regulierungsbedürftigkeit und Vorschläge -- III. Fazit -- F. Zusammenfassung und Ausblick -- I. Weitergehender Grundrechtsschutz der Suchmaschinen: Kommunikationsgrundrechte -- II. Harmonisierung des Datenschutzrechts mit äußerungsrechtlichen Abwägungsmaßstäben -- III. Regulierung von Google -- G. Ergebnisse der Untersuchung in Thesen -- H. Literaturverzeichnis -- I. Monographien, Aufsätze, Kommentare -- II. Berichte
    Additional Edition: Erscheint auch als Druck-Ausgabe Heilmann, Dorothea Recht auf Vergessenwerden Baden-Baden : Nomos Verlagsgesellschaft,c2022 ISBN 9783848789665
    Language: English
    Subjects: Law
    RVK:
    RVK:
    Keywords: Europäische Union ; Deutschland ; Suchmaschine ; Meinungsfreiheit ; Persönlichkeitsrecht ; Abwägung ; Recht auf Vergessenwerden ; Hochschulschrift ; Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 5
    UID:
    b3kat_BV047695235
    Format: 1 online resource (302 pages)
    Edition: 1st ed
    ISBN: 9783748924371
    Series Statement: Schriften zum Medien- und Informationsrecht v.52
    Note: Description based on publisher supplied metadata and other sources , Cover -- A. Einleitung -- I. Untersuchungsgegenstände -- 1. Soziale Netzwerke -- 2. Netzwerkdurchsetzungsgesetz - Zu den Begriffen "Hassrede" und "Fake News" -- II. Gang der Untersuchung -- B. Soziale Netzwerke und ihre Algorithmen - Definitionen -- I. Soziale Netzwerke -- 1. Nutzung und Funktionsweise sozialer Netzwerke als Orientierungshilfe -- 2. Begriff sozialer Netzwerke im geltenden Recht -- a) Soziale Netzwerke im Gefüge des Art. 14 Abs. 1 E-Commerce-Richtlinie -- b) Definition der Artikel-29-Datenschutzgruppe -- c) Soziale Netzwerke als Intermediäre - Medienstaatsvertrag -- d) Legaldefinition im NetzDG -- aa) Telemediendiensteanbieter -- (1) Telekommunikationsdienste und telekommunikationsgestützte Dienste -- (2) Rundfunk -- (a) Linearität -- (b) Journalistisch-redaktionell -- (3) Ergebnis -- bb) Gewinnerzielungsabsicht -- cc) Plattformen mit beliebigen Inhalten -- dd) Inhalte teilen oder der Öffentlichkeit zugänglich machen -- ee) Ausschlusstatbestände des 1 Abs. 1 Sätze 2 und 3 NetzDG -- 3. Maßgebliche Definition sozialer Netzwerke -- a) Telemediendiensteanbieter -- b) Gewinnerzielungsabsicht -- c) Beliebige Inhalte -- d) Inhalte teilen oder der Öffentlichkeit zugänglich machen -- e) Ausschlusstatbestände des 1 Abs. 1 Sätze 2 und 3 NetzDG -- f) Fazit und für diese Arbeit maßgebliche Definition -- II. Algorithmen -- 1. Facebook News Feed Algorithmus -- 2. Twitter Algorithmus -- 3. YouTube Algorithmus -- 4. Ergebnis - Gesamtbetrachtung und maßgebliche Definition -- C. Geschichte der sozialen Netzwerke -- D. Grundrechtliche Einordnung sozialer Netzwerke -- I. Entwicklung des Grundgesetzes - Verfassungswandel -- II. Grundrechtsträgerschaft sozialer Netzwerke -- III. Notwendigkeit einer grundrechtlichen Einordnung -- 1. Soziale Netzwerke - "Neue Akteure" mit Meinungsbildungseinfluss , 2. NetzDG - Grundrechtliche Einordnung als Prüfungsmaßstab -- 3. Trennung von Tatbestand und Rechtsfolge -- 4. Ergebnis -- IV. Meinungsäußerungsfreiheit, Art. 5 Abs. 1 Satz 1 Alt. 1 GG -- 1. Schutzbereich der Meinungsäußerungsfreiheit -- 2. Einordnung mit Blick auf die Meinungsäußerungsfreiheit -- a) Ansätze in der Literatur -- aa) Social-Bots und die Meinungsäußerungsfreiheit -- bb) Suchmaschinen und die Meinungsäußerungsfreiheit -- cc) Bewertungsplattformen und die Meinungsäußerungsfreiheit -- b) Anwendung dieser Ansätze auf soziale Netzwerke -- aa) Schutzbereichsabgrenzung: Meinungsäußerungsfreiheit und Mediengrundrechte -- bb) Anwendung der Ansätze zu Social-Bots -- cc) Anwendung der Ansätze zu Suchmaschinen und Bewertungsportalen -- c) Keine Individualkommunikation -- d) Ergebnis -- V. Medienfreiheiten, Art. 5 Abs. 1 Satz 2 GG -- 1. Presse und Rundfunk im Internet -- a) Presse als digitales Medium -- b) Abgrenzungserfordernis der Gewährleistungsbereiche des Art. 5 Abs. 1 Satz 2 GG im Internet -- 2. Pressefreiheit, Art. 5 Abs. 1 Satz 2 Alt. 1 GG -- a) Schutzbereich der Pressefreiheit -- b) Einordnung mit Blick auf die Pressefreiheit -- aa) Tätigkeiten und Aufgaben der Presse und ihrer Redakteure -- bb) Tätigkeiten sozialer Netzwerke und der Presse im Vergleich -- cc) Stellungnahme -- (1) Soziale Netzwerke als Massenkommunikationsmittel -- (a) Keine Zugangshürde durch Registrierung -- (b) Personalisierung der Social Media Feeds -- (c) Gruppenkommunikation -- (2) Kommunikationsinhalte Dritter -- (3) Keine fehlende journalistische Aufbereitung -- (4) Hinreichender Inhaltsbezug -- (5) Kein rein technischer Vorgang -- (6) Soziale Netzwerke als wirtschaftliche Unternehmen -- dd) Zwischenergebnis -- c) Zusammenfassung und Ergebnis -- 3. Rundfunkfreiheit, Art. 5 Abs. 1 Satz 2 Alt. 2 GG -- a) Schutzbereich der Rundfunkfreiheit , b) Einordnung - Verfassungsrechtlicher Rundfunkbegriff -- aa) Rundfunktechnische Übertragung -- bb) Darbietung -- cc) Unbestimmter Personenkreis -- dd) Wesenstypische Merkmale des Rundfunks -- (1) Breitenwirkung -- (2) Aktualität -- (3) Suggestivkraft -- (a) Maßgeblicher Begriff und Bedeutung der Suggestivkraft -- (b) Soziale Netzwerke und Suggestivkraft -- (aa) Maßstab: Gesamtangebot der sozialen Netzwerke - Schwerpunktzuordnung -- (bb) Schwerpunkt Textberichterstattung und statische Bilder -- (cc) Schwerpunkt Audio- oder Videoinhalte -- ee) Zusammenfassung und Zwischenergebnis -- c) Ergebnis -- 4. Einordnung neuer Mediengattungen in das Grundrechtsgefüge des Art. 5 Abs. 1 Satz 2 GG -- a) Verbreitungsmerkmal -- b) Grundrechtstypische Gefährdungslage -- c) Erscheinungsbild -- d) Normativer Ansatz - funktionale Betrachtung -- VI. (Rechts‑)Folgen der Einordnung unter die Medienfreiheiten -- VII. Ergebnis -- E. Netzwerkdurchsetzungsgesetz -- I. Entwicklung der Haftung und Verantwortlichkeit von Internetintermediären -- 1. Telemedienrecht -- 2. Die (Störer‑)Haftung nach dem BGH -- 3. Die (Störer‑)Haftung nach dem EuGH -- 4. Neuerungen durch das NetzDG -- II. Genese des Netzwerkdurchsetzungsgesetzes -- 1. Hintergrund des NetzDG -- 2. Gesetzgebungsverfahren -- 3. Laufende Entwicklungen -- 4. Neue Entwürfe zum NetzDG -- III. Funktionsweise und Inhalt des Gesetzes -- 1. Soziale Netzwerke als Adressat des NetzDG -- 2. Anwendungsbereich, 1 Abs. 1 NetzDG -- 3. Rechtswidrige Inhalte, 1 Abs. 3 NetzDG -- 4. Pflichten der Betreiber -- 5. Möglichkeiten der Betreiber -- 6. Aufgaben und Befugnisse des Bundesamts für Justiz -- IV. Verfassungsrechtlicher Prüfungsmaßstab -- V. Formelle Verfassungskonformität des Netzwerkdurchsetzungsgesetzes -- 1. Gesetzgebungskompetenz, Art. 70 ff. GG. , a) Ausschließliche Gesetzgebungskompetenz des Bundes: Art. 73 Abs. 1 Nr. 7 GG, Telekommunikation -- b) Konkurrierende Gesetzgebungskompetenz, Art. 72, 74 GG -- aa) Art. 74 Abs. 1 Nr. 1 GG -- (1) Materie des Bürgerlichen Rechts -- (2) Materie des Strafrechts -- bb) Materie der öffentlichen Fürsorge, Art. 74 Abs. 1 Nr. 7 GG -- cc) Materie des Rechts der Wirtschaft, Art. 74 Abs. 1 Nr. 11 GG -- (1) Von Tele- und Mediendiensten zu Telemediendiensten: Telemediengesetz und Rundfunkstaatsvertrag -- (a) Sperrverfügungen bei Verstoß gegen allgemeine Gesetze durch Telemediendiensteanbieter: Ländersache -- (b) Parallele zum bundesrechtlichen NetzDG -- (2) "Recht der Wirtschaft" - Keine rein verfahrensrechtlichen Vorgaben im NetzDG -- dd) Erforderlichkeit nach Art. 72 Abs. 2 GG -- 2. Fazit - Keine Kompetenz für den Bundesgesetzgeber bezüglich des NetzDG -- VI. Materielle Verfassungskonformität -- 1. Verletzung der Presse- bzw. Rundfunkfreiheit der Anbieter sozialer Netzwerke -- a) Erster Entwurf des NetzDG: Starre 7-Tage-Frist -- b) "In der Regel" sieben Tage -- c) Offensichtlich rechtswidrige Inhalte, 3 Abs. 2 Nr. 2 NetzDG -- aa) Offensichtliche Rechtswidrigkeit in Rechtsprechung und Literatur -- bb) Bewertung -- (1) Verfassungskonforme Auslegung des Begriffs -- (2) Weiterleitungsmöglichkeit an eine Einrichtung der Regulierten Selbstregulierung -- cc) Ergebnis -- d) Verstoß gegen den Grundsatz der Staatsfreiheit der Medien -- aa) Soziale Netzwerke und der Grundsatz der Staatsfreiheit -- bb) Meinungsstand -- cc) Bewertung -- (1) Aufsicht durch das Bundesamt für Justiz, 3 Abs. 6-9 NetzDG -- (a) Kein staatsfrei ausgestaltetes System -- (b) Blick auf Jugendmedienschutz-Staatsvertrag und Medienstaatsvertrag -- (c) Zwischenergebnis -- (2) Ermessenspielraum und Verwaltungsvorschriften -- (a) 4 Abs. 4 Satz 2 NetzDG -- (b) 4 Abs. 2 und 3 NetzDG. , (3) "Prüfkompetenz", 4 Abs. 5 Satz 1 Halbsatz 1 NetzDG -- (4) Geplante Anordnungs- und Auskunftsbefugnisse für das Bundesamt für Justiz -- (5) Ergebnis -- e) Fehlende Erforderlichkeit: Inhaltliche Prüfung durch unabhängige Stelle(n) -- f) Verstoß gegen die verfahrensrechtliche Dimension des Art. 5 Abs. 1 GG -- aa) Keine Privatisierung der Rechtsdurchsetzung -- bb) Vorabentscheidungsverfahren -- g) Zusammenfassung und Ergebnis -- 2. Verletzung der Meinungs- und Pressefreiheit der Nutzer sozialer Netzwerke -- a) Verstoß gegen die Meinungsäußerungsfreiheit, Art. 5 Abs. 1 Satz 1 GG -- aa) Mittelbarer Einfluss des Staates durch das NetzDG: Vertikales Verhältnis -- bb) Gefahr des Overblockings -- (1) Begriff des Overblockings und seine Bedeutung -- (2) Verletzung der Meinungsäußerungsfreiheit durch die Gefahr des Overblockings -- (a) Keine Verpflichtung zur Möglichkeit der Stellungnahme der Nutzer -- (b) Hauptanwendungsbereich: Nicht offensichtlich rechtswidrige Inhalte -- (c) Keine Möglichkeit der gerichtlichen Überprüfung durch soziale Netzwerke -- (d) Starker Anreiz zur Löschung durch hohe Bußgeldandrohung und kurze Fristen -- (e) Faktischer Ausschluss aus "digitaler Öffentlichkeit" - Wiedereinstellungsverfahren -- (f) "Rechtswidrige Inhalte" -- (3) Ergebnis -- cc) Verletzung der Meinungsäußerungsfreiheit durch Art. 2 NetzDG-RefE -- dd) Nutzer und Gemeinschaftsstandards sozialer Netzwerke: Horizontales Verhältnis -- ee) Verstoß gegen die verfahrensrechtliche Dimension des Art. 5 Abs. 1 GG -- (1) Gelegenheit zur Stellungnahme -- (2) Fehlende Wiedereinstellungsmöglichkeit -- (a) Unzureichende Beschwerdemöglichkeit für die Nutzer -- (b) (Bisher) einziger Weg: Klageweg für die Nutzer -- (3) Kenntnis der Betroffenen von der Prüfung des Inhalts -- (4) Vorabentscheidungsverfahren -- (5) Zwischenergebnis -- ff) Ergebnis , b) Verstoß gegen die Presse- bzw. Rundfunkfreiheit, Art. 5 Abs. 1 Satz 2 GG.
    Additional Edition: Erscheint auch als Druck-Ausgabe Giere, Katrin Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG) Baden-Baden : Nomos Verlagsgesellschaft,c2021 ISBN 9783848780488
    Language: German
    Subjects: Law
    RVK:
    RVK:
    RVK:
    Keywords: Deutschland Netzwerkdurchsetzungsgesetz ; Verfassungsmäßigkeit ; Social Media ; Medienfreiheit ; Selbstregulation ; Deutschland ; Online-Community ; Grundrecht ; Deutschland Bundesregierung Netzwerkdurchsetzungsgesetz ; Hochschulschrift ; Hochschulschrift
    URL: Volltext  (lizenzpflichtig)
    URL: Volltext  (lizenzpflichtig)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 6
    UID:
    b3kat_BV047695319
    Format: 1 online resource (388 pages)
    Edition: 1st ed
    ISBN: 9783748923220
    Series Statement: Robotik und Recht v.22
    Note: Description based on publisher supplied metadata and other sources , Cover -- Einleitung -- Teil 1: Intelligente Systeme, Autonomie und Künstliche Intelligenz -- Kapitel 1: Die historische Genese -- A. Die ersten mechanischen Ansätze -- B. Gegenwärtige Einsatzbereiche -- Kapitel 2: Kulturgeschichtlicher Hintergrund -- A. Roboter als Begleiter des Menschen -- B. Übertragbarkeit juristischen Vokabulars auf Maschinen -- C. Roboterrisiken -- Kapitel 3: Kategorisierung von Systemen -- A. Unterscheidung System - Maschine - Roboter - Agenten -- I. Agenten -- II. Maschinen und Roboter -- III. Systeme -- IV. Zusammenfassung -- B. "Intelligenzstufen" von Systemen -- I. Automatisierte Systeme -- II. Autonome Systeme -- 1. Der Begriff der Autonomie -- 2. Die verschiedenen Autonomiegrade -- Kapitel 4: Künstliche Intelligenz -- A. Entstehungsgeschichte -- B. Begriffsbestimmung -- I. Intelligenz - ein wandelnder Prozess -- 1. Natürliche Intelligenz -- a) Der Ansatz von Thorndike -- b) Übertragbarkeit des Ansatzes auf KI-Systeme -- c) Die Abstraktheit menschlicher Intelligenz -- 2. Wann ist eine Maschine intelligent? -- a) Anknüpfung an die Fehleranfälligkeit -- b) Der Turing-Test -- c) Zwischenfazit zur Maschinenintelligenz -- 3. Der Zusammenhang zwischen natürlicher und maschineller Intelligenz -- II. Von "Menschlich" zu "Künstlich" -- C. Arten Künstlicher Intelligenz -- D. Begriffsverständnis der Künstlichen Intelligenz -- E. Weitere Anwendungsbereiche Künstlicher Intelligenz -- I. Machine Learning -- 1. Nicht überwachtes Lernen -- 2. Überwachtes Lernen -- 3. Reinforcement Learning -- II. Deep Learning -- F. KI als Dreh- und Angelpunkt -- Teil 2: Ethik und Robotik -- Kapitel 1: Ethik und Moral - allgemeine Begriffsbestimmungen -- Kapitel 2: Ethische Gesichtspunkte beim Einsatz von intelligenten Systemen -- A. Die verschiedenen Arten von Ethik -- I. Deskriptive Ethik -- II. Normative Ethik -- 1. Deontologische Ethik , 2. Konsequentialistische Ethik -- III. Metaethik -- B. Maschinenethik -- C. Die Moralfähigkeit als zentrale Voraussetzung für ethisches Handeln -- I. Generelle Anforderungen an die moralische Verantwortungsfähigkeit -- 1. Intentionalität dritter Stufe -- 2. Sprachfähigkeit -- 3. Selbstbewusstsein -- II. Der freie Wille als Grundstein moralischen Handelns -- III. Moralische Akteure -- 1. Lebewesen -- 2. Unternehmen -- 3. Intelligente Systeme -- a) Intentionalität dritter Stufe und ein freier Wille -- b) Sprachfähigkeit -- c) Selbstbewusstsein -- d) Keine Moralfähigkeit von Systemen -- IV. Konsequenzen fehlender Moralfähigkeit -- 1. Keine moralischen Rechte und Pflichten für Systeme -- 2. Kein zulässiger Vergleich mit der Moralfähigkeit von Tieren -- 3. Zusammenspiel von moralischer und rechtlicher Verantwortung -- 4. Resümee zur Moralfähigkeit von Systemen -- V. Ethisches Handeln der Systeme -- D. Die Programmierung moralischer Richtlinien -- I. Grundsätzliche Programmierbarkeit -- II. Zugrundeliegender Standard -- 1. Die menschliche Moral als Grundstein des Maschinenhandelns -- 2. Eigene Maschinenleitlinien -- 3. Kombinierter Lösungsvorschlag -- III. Probleme der Programmierung -- IV. Konsequenzen bei einem Verstoß -- 1. Verstoß gegen die Moral -- 2. Konsequenzen des Verstoßes -- Kapitel 3: Invented for Life unter dem Gesichtspunkt der KI -- A. Die Bedeutung eines Unternehmensslogans -- I. Allgemeine Unternehmensphilosophie -- II. Bedeutung des Slogans "Invented for Life" -- 1. Wortlautbedeutung -- 2. Verantwortungsbereiche -- 3. Bedeutungsumfang -- B. Vereinbarkeit des Slogans mit dem Einsatz von KI -- I. Festlegung eines Beurteilungsmaßstabs -- II. Überlegungen zur Vereinbarkeit -- C. Ergebnis -- Teil 3: Der Verantwortungsbegriff in Ethik und Recht -- Kapitel 1: Die Verantwortung in der Ethik -- A. Verantwortung als dreistellige Relation , I. Voraussetzungen der Verantwortungszuschreibung -- 1. Wer ist verantwortlich? -- 2. Wofür ist er oder sie verantwortlich? -- 3. Wem gegenüber besteht die Verantwortung? -- II. Folgen moralischer Verantwortung -- B. Moralische Verantwortungsfähigkeit -- Kapitel 2: Der Verantwortungsbegriff im Recht -- A. Verantwortung als allgemeiner Zuschreibungsvorgang -- B. Voraussetzungen der Verantwortungszuschreibung im materiell-rechtlichen Sinne -- I. Zurechnungsfähigkeit -- II. Handlungsfreiheit -- III. Bewusstsein des Fehlverhaltens -- IV. Kausalität -- C. Die Person als Zurechnungsobjekt -- D. Die Rechtsfähigkeit als Dreh- und Angelpunkt -- Kapitel 3: Verantwortungsfragen in den verschiedenen Rechtsgebieten -- A. Anwendungsfälle im Zivilrecht -- I. Verschuldens- und Gefährdungshaftung -- II. Haftungsvermögen -- III. Unabhängige Verantwortung -- B. Verantwortung im Strafrecht -- C. Anwendungsbereich im Öffentlichen Recht -- Kapitel 4: Die Verantwortung eines Systems -- A. Moralische Verantwortung der KI-Systeme -- B. Moralische Verantwortung für KI-Systeme -- C. Rechtliche Verantwortung -- I. Subsumtion unter die Voraussetzungen der rechtlichen Verantwortung -- 1. Zurechnungsfähigkeit -- 2. Handlungsfreiheit -- 3. Bewusstsein des Fehlverhaltens -- 4. Kausalität -- 5. Zwischenergebnis -- II. Rechtsfähigkeit von Systemen -- 1. Kraft Natur der Sache -- 2. Mittels Analogie -- a) Planwidrige Regelungslücke -- b) Vergleichbarkeit der Interessenlagen -- c) Analogie zu anderen Vorschriften -- d) Zwischenergebnis -- 3. Stand de lege lata -- III. Ergebnis zur rechtlichen Verantwortung -- D. Keine Verantwortungsfähigkeit -- Teil 4: Sorgfaltsanforderungen an den Hersteller von KI-Systemen -- Kapitel 1: Begriffsbestimmung und Hintergrund -- A. Relevanz der Sorgfalt im Haftungskontext -- B. Begriff und Umfang der Sorgfalt -- I. Der Begriff der Sorgfalt , II. Umfang und Maßstab der zivilrechtlichen Sorgfalt -- C. Zwischenergebnis -- Kapitel 2: Human oversight -- A. Human-in-the-loop -- B. Human-on-the-loop -- C. Human-in-command -- Kapitel 3: Einflussfaktoren auf den Sorgfaltsmaßstab des Herstellers -- A. Faktoren des Sorgfaltsmaßstabs -- I. Überwachungsmöglichkeit des Anwenders -- 1. Allgemeine Überwachungsfähigkeit -- 2. Divergenz des Sorgfaltsmaßstabs bei human oversight-Formen -- 3. Zwischenergebnis -- II. Übersteuerungsmöglichkeit des Anwenders -- III. Einsatzbereich und Adressatenkreis des Produkts -- 1. Grundlegende Erwägungen -- 2. Spezifika beim Einsatz von KI -- 3. Zwischenergebnis -- IV. Stand von Wissenschaft und Technik -- 1. Grundsätze -- 2. Entwicklung von KI-Systemen -- V. Betroffene Rechtsgüter -- VI. Schädigungspotential, Schadenswahrscheinlichkeit und Schadenshöhe -- VII. Ergebnis zu den variierenden Sorgfaltspflichten -- B. Besonderheiten bei KI-Systemen -- I. Unberechenbarkeit -- II. Mangelnde Beherrschbarkeit -- III. Eingeschränkte Nachvollziehbarkeit -- IV. Einfluss der human oversight auf die Sorgfaltsanforderungen des Herstellers -- 1. HITL -- 2. HOTL -- 3. HIC -- 4. Zusammenfassend zur human oversight -- C. Besondere Sorgfaltspflichten des Herstellers bei KI-Systemen -- Kapitel 4: Sorgfaltspflichten des Warenherstellers -- A. Spezielle Pflichten des Herstellers -- I. Die Zäsur des Inverkehrbringens -- II. Pflichten bis zum Inverkehrbringen -- 1. Konstruktionspflichten -- 2. Der Bereich der Entwicklung -- 3. Fabrikationspflichten -- 4. Instruktionspflichten -- 5. Erhöhte Pflichten des Herstellers vor Inverkehrbringen -- III. Pflichten nach Inverkehrbringen -- 1. Die Produktbeobachtungspflicht -- a) Zweiteilung der Pflichten -- b) Der Rahmen der Beobachtungspflichten -- 2. Reaktionen bei Auffälligkeiten -- 3. Gesteigerte Pflichten im Bereich der Produktbeobachtung , IV. Die Sorgfalt des Herstellers von KI-Systemen -- B. Sorgfaltspflichten als zweistufige Relation -- I. Identifikation -- 1. Hackerangriff zur Manipulation und Sabotage -- 2. Fehlende Übersteuerungsmöglichkeit -- 3. Keine Diskriminierung durch Algorithmen -- 4. Schäden nach Fehlfunktion -- 5. Nur eingeschränkte Vorhersehbarkeit des Herstellers -- II. Reaktion -- 1. Vermeidbarkeit als Beherrschbarkeit -- 2. Einzelne Reaktionsmöglichkeiten -- a) Überwachungsmaßnahmen -- b) Updatepflicht -- c) Erneuerung der Datenmenge -- d) Erweiterte Testphase -- e) Erklärbarkeit -- 3. Zusammenfassung der Handlungsmöglichkeiten des Herstellers -- C. Ergebnis zu den Sorgfaltspflichten des Herstellers -- D. Weißbuch der Europäische Kommission -- Kapitel 5: Sorgfaltspflichten nach der Systemart -- A. Geschlossene Systeme -- B. Offene Systeme -- Kapitel 6: Erhöhte Sorgfaltspflichten des Herstellers von KI-Systemen -- Teil 5: Zivilrechtliche Haftung des Herstellers -- Kapitel 1: Aufbau des deutschen Haftungssystems -- A. Verschuldenshaftung -- I. Vertragliche Haftung -- II. Deliktische Haftung -- III. Weitere Normen mit Verschuldensbezug -- B. Gefährdungshaftung -- Kapitel 2: Vertragliche Haftung des Herstellers -- A. Vertragstypen nach Produktart -- I. Körperliche Gegenstände -- II. Virtuelle Systeme/Software -- B. Kaufrechtliche Mängelrechte -- I. Systematik der Mängelgewährleistungsrechte -- II. Vorliegen eines Mangels -- 1. Mangel des Endprodukts -- 2. Mangel eines Teilprodukts -- 3. Verbrauchsgüterkauf -- III. Vertretenmüssen -- 1. Verschulden des Endherstellers im Zwei-Personen-Verhältnis -- a) Vorsätzliches Handeln -- b) Fahrlässiges Verhalten -- 2. Verschulden im Drei-Personen-Verhältnis -- 3. Die KI als Erfüllungsgehilfe -- IV. Rechtsfolgen -- V. Verjährung -- VI. Beweislast -- C. Werkvertragliche Mängelrechte -- D. Werklieferungsvertrag , E. Zusammenfassend zur vertraglichen Haftung
    Additional Edition: Erscheint auch als Druck-Ausgabe Haagen, Christian Verantwortung für Künstliche Intelligenz Baden-Baden : Nomos Verlagsgesellschaft,c2021 ISBN 9783848779376
    Language: German
    Subjects: Law , Philosophy
    RVK:
    RVK:
    RVK:
    Keywords: Deutschland ; Künstliche Intelligenz ; Sorgfaltspflicht ; Produzentenhaftung ; Ethik ; Künstliche Intelligenz ; Ethik ; Verantwortung ; Hochschulschrift ; Hochschulschrift
    URL: Volltext  (lizenzpflichtig)
    URL: Volltext  (lizenzpflichtig)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 7
    UID:
    b3kat_BV048220392
    Format: 1 Online-Ressource (400 Seiten)
    Edition: 1st ed
    ISBN: 9783748903482
    Series Statement: Schriften zur Kriminologie v.19
    Note: Description based on publisher supplied metadata and other sources , Cover -- Kapitel I. Grundlagen des personenbezogenen Predictive Policing -- A. Einführung -- B. Gang der Untersuchung -- C. Terminologie und Abgrenzung -- I. Arten des Predictive Policing -- 1. Personenbezogen und ortsbezogen -- 2. Gefahrverdacht bestätigend und Gefahrverdacht erzeugend -- II. Abgrenzung zum Einsatz von Algorithmen im Strafverfahren, Strafvollzug und Ermittlungsverfahren -- D. Forschungszuschnitt -- 1. Aktualität -- 2. Transformatives Potenzial -- 3. Forschungslücke -- E. Technologischer Hintergrund -- I. Traditionelle statistische Verfahren -- 1. Zusammenstellen der Fallbasis -- 2. Festlegung der Zielvariablen -- 3. Festlegung der prädiktiven Inputvariablen -- 4. Ableitung eines prädiktiven Modells -- 5. Risikoübersetzung und -kommunikation -- a) Prozentsatz -- b) Kriminalitätswahrscheinlichkeit im Vergleich zur Durchschnittsbevölkerung -- c) Basisrate -- d) Fehlerrate -- e) Cut-Off -- 6. Anwendung auf den Einzelfall -- a) Personenkreis der Beurteilten -- b) Personenkreis der Beurteilenden -- II. Algorithmengestützte Verfahren -- 1. Regelbasierte algorithmengestützte Entscheidungssysteme -- 2. Fallbasierte algorithmengestützte Entscheidungssysteme -- a) Unterschiede: Zusammenstellen des Trainingsdatensatzes (Schritt 1) -- b) Unterschiede: Festlegung der Zielvariablen (Schritt 2) -- c) Unterschiede: Festlegung prädiktiver Inputvariablen (Schritt 3) -- d) Unterschiede: Ableitung eines prädiktiven Modells (Schritt 4) -- e) Unterschiede: Risikoübersetzung und -kommunikation (Schritt 5) -- f) Unterschiede: Anwendung auf den Einzelfall (Schritt 6) -- aa) Personenkreis der Beurteilten -- bb) Personenkreis der Beurteilenden -- (1) Von Prognose-Experten zu Prognose-Laien -- (2) Automation Bias -- III. Fazit zu technologischem Hintergrund -- F. Bestandsaufnahme: gegenwärtiger Einsatz -- I. USA und Großbritannien -- 1. Beware , 2. HART (Harm Assessment Risk Tool) -- 3. Strategic Subject List -- 4. Zusammenfassung -- II. Deutschsprachiger Raum -- 1. RADAR-iTE (Regelbasierte Analyse potenziell destruktiver Täter zur Einschätzung des akuten Risikos - islamistischer Terrorismus) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- cc) Intransparenz -- 2. Palantir Gotham - hessenDATA -- 3. DyRiAS (Dynamisches Risiko-Analyse-System) -- a) Entwicklung -- b) Anwendung -- aa) Personenkreis der Beurteilenden -- bb) Personenkreis der Beurteilten -- 4. Fluggastdatenmusterabgleich -- 5. Zusammenfassung -- G. Tatsächliche Grenzen -- I. Keine Gesamtbetrachtung - Big Data heißt nicht All Data -- II. Keine Kausalität -- III. Keine Neutralität -- 1. Datenauswahlprozesse -- a) Mangelnde Datenqualität -- b) Dunkelfeld in den Statistiken -- c) Keine Repräsentativität der Stichprobe -- d) Perpetuierung gesellschaftlicher Diskriminierung -- e) Zwischenfazit und Lösungsmöglichkeiten -- 2. Festlegung der Zielvariablen -- 3. Auswahl der Inputvariablen -- 4. Kalibrierung und Überwachung des Lernprozesses -- a) Fehlerrate -- b) Überanpassung - Zufällige Korrelationen -- 5. Zusammenfassung -- H. Fazit zum Kapitel I. Grundlagen -- Kapitel II. Rechtliche Grenzen des personenbezogenen Predictive Policing -- A. Polizeirechtlicher Rahmen -- I. Einordnung in die Gefahr-Dogmatik -- 1. Konkrete Gefahr -- 2. Gefahrverdacht -- 3. Risikoscore als konkrete Gefahr? -- a) Gegenargumente -- b) Quantifizierbarkeit von normativen Abwägungsentscheidungen -- 4. Risikoscore als Gefahrverdacht? -- 5. Risikoscore als ein tatsächlicher Anhaltspunkt -- 6. Zwischenergebnis -- II. Fehler der Risikoscoreerstellung -- III. Ermächtigungsgrundlage -- 1. Erforderlichkeit einer Ermächtigungsgrundlage -- 2. Vorliegen einer Ermächtigungsgrundlage -- a) Standardbefugnisse , aa) Rasterfahndung -- (1) Errichten eines PPP-Systems -- (2) Erzeugen eines Risikoscores -- (a) "Stehendes" System -- (b) "Muster" statt Datenbestand -- (c) Neues Datum -- (d) Erhöhte Intransparenz -- bb) Generalklauseln der Datenspeicherung und Weiterverarbeitung -- (1) Datenspeicherung in automatisierten Dateisystemen -- (2) Datenverarbeitung und Datenabgleich -- (a) Datenverarbeitung -- (b) Datenabgleich -- cc) Automatisierte Anwendung zur Datenanalyse -- b) Allgemeine polizeirechtliche Generalklausel -- c) Datenschutzrecht -- d) Fluggastdatengesetz -- 3. Neue Standardbefugnis -- B. Verfassungsrechtlicher Rahmen -- I. Informationelle Selbstbestimmung -- 1. Umfang -- a) Entscheidung über die Preisgabe und Verwendung persönlicher Daten -- b) Geschützte Daten -- c) Verbot der Persönlichkeitsprofilbildung -- d) Gemeinwohldimension und Einschüchterungseffekte -- 2. Grenzen und Verhältnismäßigkeit -- 3. Konkrete Anforderungen des Rechts auf informationelle Selbstbestimmung an PPP -- a) Vorliegen einer hohen Eingriffsintensität -- aa) Heimlichkeit und Mangel an Transparenz -- bb) Streubreite -- cc) Automatisierung -- dd) Nähe zu Persönlichkeitsprofilen -- ee) Stigmatisierung -- b) Folgen einer hohen Eingriffsintensität -- aa) Hinreichend gewichtige Straftaten -- bb) Konkrete Gefahr -- (1) Anforderung des BVerfG zur Rasterfahndung -- (2) Kein Absenken der Eingriffsschwelle unter eine konkrete Gefahr -- c) Organisations- und Verfahrensvorgaben -- 4. Zusammenfassung -- II. Diskriminierungsverbot -- 1. Einführung -- 2. Quellen algorithmischer Diskriminierung -- a) Datenauswahlprozesse -- b) Festlegung der Zielvariablen -- c) Auswahl der Inputvariablen -- d) Kalibrierung und Überwachung des Lernprozesses -- 3. Rechtliche Einordnung -- a) Gleichheitssätze -- aa) Besondere Gleichheitssätze -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung , bb) Allgemeiner Gleichheitssatz -- (1) Ungleichbehandlung -- (2) Frage nach einer Rechtfertigung -- b) Besonderheiten im Rahmen von PPP -- aa) Erkennen einer Ungleichbehandlung -- bb) Ausdifferenzierte Fallgruppen der Ungleichbehandlung -- cc) Statistische Rechtfertigungen -- (1) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 3 S. 1 GG -- (a) Argument des "Rational Racism" -- (b) Argument des "kleineren Übels" -- (2) Rechtfertigung einer Diskriminierung nach Art. 3 Abs. 1 GG -- 4. Fazit zum Diskriminierungsverbot -- III. Transparenzgebot -- 1. Exkurs: Janusköpfigkeit des Blackbox-Narrativs -- 2. Drei Schichten der Intransparenz -- a) Begriffsklärung -- aa) Unzugänglichkeit qua Geheimhaltung -- bb) Unzugänglichkeit qua fehlendem Fachwissen -- cc) Unzugänglichkeit qua systemimmanenter Komplexität -- (1) Fallbasierte algorithmische Entscheidungssysteme -- (2) Regelbasierte algorithmische Entscheidungssysteme -- (3) Beispiele -- (4) Lösungsansätze: "Explainable AI" -- b) Fazit zu Transparenzschichten -- 3. Transparenzmechanismen -- a) Erste Transparenzdimension: Zeitpunkt der Offenlegung -- b) Zweite Transparenzdimension: Zur Einsichtnahme berechtigter Personenkreis -- aa) Subjektiv Betroffene -- (1) Einzelperson -- (2) Kollaboratives Crowdsourcing -- bb) Staatliche Kontrollinstitution -- (1) Mögliche Ausgestaltungen -- (2) Personelle Ausstattung -- (3) Organisatorisch-strukturelle Überlegungen -- (4) Fazit zu staatlichen Kontrollinstitutionen -- cc) Breite Öffentlichkeit -- dd) Fazit zum zur Einsichtnahme berechtigten Personenkreis -- c) Dritte Transparenzdimension: Umfang der Offenlegung -- aa) Abstrakte Informationen -- (1) Existenz und Einsatz im Einzelfall -- (2) Abstrakte Wirkungsprinzipien -- (3) Quellcode -- (4) Output-Testing -- (5) Protokollierungspflichten der Designphase -- bb) Begründung im Einzelfall -- cc) Fazit zum Transparenzgebot , 4. Argumente gegen Transparenz -- a) Unmöglichkeit von Transparenz -- b) Unnötigkeit von Transparenz -- aa) "Human in the Loop" -- bb) Vergleich mit bereits bestehender Intransparenz -- c) Überwiegen konkurrierender Interessen -- aa) Betriebsgeheimnis -- bb) Ausspähung des Algorithmus -- cc) Datenschutz Dritter -- dd) Fazit zum Überwiegen konkurrierender Interessen -- d) Fazit zu Argumenten gegen Transparenz -- 5. Rechtliche Verortung des Transparenzgebots -- a) Einfachgesetzlich -- aa) Datenschutzrecht -- bb) Informationsfreiheitsgesetze -- cc) Verwaltungsprozessrecht -- b) Verfassungsrecht -- aa) Menschenwürdekern des Rechts auf informationelle Selbstbestimmung -- bb) Demokratieprinzip -- (1) Legitimationskette -- (2) Demokratische Willensbildung -- (3) Demokratische Kontrolle -- cc) Rechtsstaatsprinzip -- 6. Fazit zum Transparenzgebot -- IV. Unschuldsvermutung -- C. Strafprozessuale Betrachtung: Umwidmung zum Tatermittlungswerkzeug -- I. Vorüberlegungen -- 1. Keine Beweisgeeignetheit -- 2. Zweifelhafte Aufklärungsgeeignetheit als Spurenansatz -- 3. Keine Ermittlungen "ins Blaue hinein" -- 4. Konkreter Ermittlungsansatz -- II. "Doppeltüren" der Datenweiterverarbeitung -- 1. Doppeltür: gefahrenabwehrrechtliche Seite -- 2. Doppeltür: strafprozessuale Seite -- a) 98 c S. 1 StPO: maschineller Abgleich von Daten -- aa) Fehlen besonderer Eingriffsschwellen -- bb) Keine Anwendbarkeit auf PPP -- b) 161 Abs. 2 StPO: katalogabhängige Maßnahmen der Datenerhebung -- c) 161 Abs. 1, 163 Abs. 1 StPO: Ermittlungsgeneralklausel -- aa) Vergleich mit der Onlinedurchsuchung vor 2017 -- (1) e. A. Zulassen der Verwendung als Spurenansatz -- (2) a. A. Ablehnung jeglicher Verwertung -- bb) Übertragung auf PPP -- III. Fazit zur Umwidmung zum Tatermittlungswerkzeug -- D. Fazit zum Kapitel II. Rechtliche Grenzen , Kapitel III. Algorithmische Wende in der Kriminalitätskontrolle - kriminologische, soziologische und rechtstheoretische Analyse
    Additional Edition: Erscheint auch als Druck-Ausgabe Sommerer, Lucia Personenbezogenes Predictive Policing : Kriminalwissenschaftliche Untersuchung über die Automatisierung der Kriminalprognose Baden-Baden : Nomos Verlagsgesellschaft,c2020 ISBN 9783848762330
    Language: German
    Subjects: Law
    RVK:
    Keywords: Deutschland ; Gefahrenabwehr ; Verbrechenskontrolle ; Täter ; Kriminalprognose ; Algorithmus ; Informationelles Selbstbestimmungsrecht ; Hochschulschrift
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 8
    Online Resource
    Online Resource
    Baden-Baden : Nomos Verlagsgesellschaft
    UID:
    b3kat_BV048220673
    Format: 1 Online-Ressource (276 Seiten)
    Edition: 3rd ed
    ISBN: 9783845298108
    Series Statement: Studienkurs Sozialwirtschaft
    Note: Description based on publisher supplied metadata and other sources , Cover -- 1. Einführung in die Sozialinformatik -- 1.1. Geschichte und Begriffsdefinition -- 1.2. Gegenstand -- 1.3. Wozu Sozialinformatik? -- 1.4. Disziplinäre Bezugspunkte der Sozialinformatik -- 1.5. Theorieentwicklung und Methoden -- 1.6. Forschung und Lehre -- Literatur und Links zum Kapitel -- 2. Grundlagen der Informatik -- 2.1. Informatik als Wissenschaft und Praxis -- 2.1.1. Begriff, Gegenstand und Geschichte -- 2.1.2. Disziplinen der Informatik -- 2.2. Grundlagen der Informationsverarbeitung in Computern -- 2.2.1. Daten und ihre Codierung -- Symbole und Alphabete -- Binärcode als Grundlage der Datenverarbeitung -- Digitalisierung als technischer Begriff -- Grundlegende Datentypen -- Elektronische Schaltungen und ihre Logik -- 2.2.2. Klassische Algorithmen und Programme -- 2.2.3. Selbstlernende Algorithmen und Neuronale Netze -- 2.3. Systemarchitekturen -- 2.3.1. Computer -- 2.3.2. Netzwerke -- Lokale Netze -- Weitverkehrsnetze -- Netzwerk-Protokolle -- 2.3.3. Internet und Intranet -- 2.3.4. Cloud Computing -- 2.4. Datenbank-Architekturen -- Literatur und Links zum Kapitel -- 3. Soziale Organisationen im digitalen Wandel -- 3.1. Digitaler Wandel - Eine Einführung -- 3.2. Veränderungen in Wirtschaft und Gesellschaft -- 3.3. Wirkungen auf soziale Organisationen -- 3.3.1. Vermittlungsplattformen für soziale Dienste -- 3.3.2. Digitale Produkte -- 3.3.3. Künstliche Intelligenz und Robotik -- 3.4. Handlungsbedarfe für soziale Organisationen -- 3.5. Entwicklung von Digitalisierungsstrategien -- 3.5.1. Digitalisierungs-, Unternehmens- und IT-Strategie -- 3.5.2. Reifegrad-Ebenen einer Digitalisierungsstrategie -- 3.5.3. Ansätze und Methoden der Strategieentwicklung -- Innovationstrichter -- Labs als Experimentierraum -- Design Thinking als Kreativmethode -- Literatur und Links zum Kapitel -- 4. Informationstechnologie in sozialen Organisationen , 4.1. Historische Entwicklungslinien -- 4.1.1. Erste Phase: Verwaltungssoftware -- 4.1.2. Zweite Phase: Ausweitung auf Leitung und Fachlichkeit -- 4.1.3. Dritte Phase: Intensive fachliche Nutzung und Controlling -- 4.1.4. Vierte Phase: Ausweitung auf übergreifende Prozesse -- 4.2. IT-Einsatz in sozialen Organisationen heute -- 4.2.1. Betriebssysteme und Standardsoftware -- 4.2.2. Rechnungswesen-Software -- 4.2.3. Software für die Personalwirtschaft -- 4.2.4. Branchenspezifische Software -- Stammdatenverwaltung und Leistungsabrechnung -- Dienst- und Einsatzplanung -- Auswertungen und Statistik -- 4.2.5. Enterprise Content Management Systeme (ECMS) -- 4.2.6. Business Intelligence (BI) -- 4.3. Entwicklungstrends -- 4.3.1. Customizingfähigkeit -- 4.3.2. Prozessorientierung -- 4.3.3. Mobilität -- 4.3.4. Nutzerorientierung -- 4.3.5. Offene Architekturen -- 4.3.6. Software-Integration -- 4.3.7. Interessenten-, Klienten- und Angehörigenintegration -- 4.3.8. Integration neuer Datentypen -- 4.3.9. Cloud Computing -- 4.3.10. Big Data und Künstliche Intelligenz -- 4.3.11. Assistenz-Technologien -- Literatur und Links zum Kapitel -- 5. Nutzung digitaler Technologien in der Sozialen Arbeit -- 5.1. Soziale Arbeit als personenbezogene Dienstleistung -- 5.2. Standardisierungsdilemma -- 5.3. Formen der Nutzung digitaler Technologien -- 5.3.1. Fachsoftware zur Planung und Dokumentation von Hilfen -- 5.3.2. Online-Beratung -- 5.3.3. App-basierte Beratungs- und Therapieunterstützung -- Literatur und Links zum Kapitel -- 6. Geschäftsprozessmanagement -- 6.1. Gestaltungsebenen -- 6.1.1. Strategisches Geschäftsprozessmanagement -- 6.1.2. Operatives Geschäftsprozessmanagement -- 6.2. Ziele und Nutzen -- 6.2.1. Zielebenen -- 6.2.2. Nutzenseffekte -- Nutzen für die Organisation -- Nutzen für Mitarbeitende -- Nutzen für Adressaten, Angehörige und Partner , 6.3. Aufbau- und Ablauforganisation -- 6.4. Typen von Geschäftsprozessen -- 6.5. Prozesse und teilstrukturierte Aufgaben -- 6.6. Methoden des Geschäftsprozessmanagements -- 6.6.1. Prozesse identifizieren und priorisieren -- 6.6.2. Prozesse im IST-Zustand modellieren -- 6.6.3. Prozesse optimieren -- 6.7. Prozessoptimierung und IT-Einsatz -- 6.7.1. Merkmale prozessunterstützender Software -- 6.7.2. Konkrete Funktionstypen -- Literatur und Links zum Kapitel -- 7. IT-Management in sozialen Organisationen -- 7.1. Entwicklungsstufen des IT-Managements -- 7.2. IT-Strategie-Entwicklung -- 7.2.1. IT-Strategie und Unternehmensstrategie -- 7.2.2. Diagnose der IST-Situation -- 7.2.3. Formulierung von Zielen -- 7.2.4. Projekt- und Umsetzungsplanung -- 7.3. IT-Organisation -- 7.4. IT-Projektmanagement -- 7.4.1. Methoden des IT-Projektmanagements -- 7.4.2. Projektskizze und Projektinitiierung -- 7.4.3. Zieldefinition, Aufgaben-und Kostenplanung -- 7.4.4. Risikomanagement -- 7.4.5. Projektkommunikation und Projektcontrolling -- 7.4.6. Projektabschluss -- 7.5. Systemauswahl -- 7.5.1. Gestaltung und Ablauf -- 7.5.2. Lastenheft -- 7.5.3. Marktanalyse, Vorauswahl und Ausschreibung -- 7.5.4. Angebotsanalyse -- 7.5.5. Wirtschaftlichkeitsprüfung und Auswahlentscheidung -- 7.6. System-Einführung -- 7.6.1. Projektplanung -- 7.6.2. Software-Administration und Customizing -- 7.6.3. Mitarbeitenden-Qualifikation -- 7.6.4. Datenerfassung, Testbetrieb, Rollout und Abnahme -- 7.7. IT-Servicemanagement -- 7.7.1. ITIL-Modell -- 7.7.2. ITIL in der Sozialwirtschaft -- 7.7.3. Ausgewählte ITIL-Praktiken für soziale Organisationen -- Incident Management (Störungsmanagement) -- Problem-Management -- Change Control (Steuerung von Veränderungen) -- Literatur und Links zum Kapitel -- 8. Datenschutz und IT-Sicherheit -- 8.1. Datenschutz-Recht -- 8.1.1. Schutz personenbezogener Daten , 8.1.2. Grundsätze der Datenverarbeitung -- Rechtmäßigkeit und Transparenz (Art. 5 Abs. 1a und Art. 6) -- Zweckbindung und Datenminimierung (Art. 5 Abs. 1b und c) -- Richtigkeit (Art. 5 Abs. 1d) -- Speicherbegrenzung (Art. 5 Abs. 1e) -- Integrität und Vertraulichkeit (Art. 5 Abs. 1f) -- Rechenschaftspflicht (Art. 5 Abs. 2) -- 8.1.3. Rechte der Betroffenen -- 8.1.4. Bestellung eines Datenschutzbeauftragten -- 8.1.5. Führung eines Verarbeitungsverzeichnisses -- 8.1.6. Technisch-organisatorische Maßnahmen -- 8.1.7. Auftragsverarbeitung -- 8.2. Datenschutz und Soziale Medien -- 8.3. IT-Sicherheit -- 8.3.1. Gefahren für Computersysteme und Daten -- 8.3.2. Gesetzliche Grundlagen und organisatorische Verankerung -- 8.3.3. Standards der IT-Sicherheit -- 8.3.4. Erstellung eines IT-Sicherheitskonzeptes -- Literatur und Links zum Kapitel -- 9. Anhang -- 9.1. Weiterführende Grundlagenliteratur -- 9.2. Weiterführende Links -- 9.3. Lösung der Arbeitsaufgaben -- Stichwortverzeichnis -- Zum Verfasser
    Additional Edition: Erscheint auch als Druck-Ausgabe Kreidenweis, Helmut Sozialinformatik : Digitaler Wandel und IT-Einsatz in sozialen Organisationen Baden-Baden : Nomos Verlagsgesellschaft,c2020 ISBN 9783848756650
    Language: German
    Subjects: Computer Science , Economics , Education , Sociology
    RVK:
    RVK:
    RVK:
    RVK:
    RVK:
    Keywords: Sozialwesen ; Datenverarbeitung ; Informationsmanagement ; Electronic books.
    URL: Volltext  (URL des Erstveröffentlichers)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 9
    UID:
    b3kat_BV048220420
    Format: 1 Online-Ressource (430 Seiten)
    Edition: 1st ed
    ISBN: 9783748904922
    Series Statement: Frankfurter Studien zum Datenschutz v.56
    Note: Description based on publisher supplied metadata and other sources , Cover -- Kapitel 1: Einführende Betrachtungen -- 1 Einleitung -- 2 Gang der Untersuchung -- 3 Der Untersuchungsgegenstand: Massive Open Online Courses -- A. Begriffserläuterung -- B. Entwicklungsgeschichte -- C. Didaktisches Konzept -- D. Verbreitung in Deutschland -- E. Herausforderungen für Bildungspolitik und Datenschutz -- Kapitel 2: Digitale Bildung als Erscheinungsform des Big-Data-Zeitalters -- 1 Das Phänomen Big Data -- A. Künstliche Intelligenz als Schlüssel zu Big Data -- B. Das Potenzial von Big-Data-Analysen -- C. ,Herrschaft der Algorithmen' -- 2 Die Risiken digitaler Bildungsanwendungen für den Datenschutz -- A. MOOCs als Datenquelle -- B. ,Gläserne Studenten'? - Risikoszenarien der MOOC-Nutzung -- I. Digitale Totalerfassung -- II. Datenweitergabe als Geschäftsmodell -- III. Datenzugriff US-amerikanischer Sicherheitsbehörden -- C. Zwischenfazit -- Kapitel 3: Prüfungsmaßstab im europäischen Datenschutzregime -- 1 Entstehungsgeschichte des europäischen Datenschutzrechts -- A. Anfänge eines internationalen Persönlichkeitsschutzes -- B. Die Verankerung des Datenschutzes im Europarecht -- 2 Datenschutz - eine rein europäische Angelegenheit? -- A. Die europäische Datenschutzkompetenz (Art. 16 Abs. 2 AEUV) -- I. Regelungsgehalt -- II. Einordnung in das europäische Kompetenzgefüge -- III. Sperrwirkung der Datenschutzkompetenz -- B. Wahrnehmung der Datenschutzkompetenz durch Erlass der DS-GVO -- I. Zielsetzung (Art. 1 Abs. 1 DS-GVO) -- II. Sachlicher Anwendungsbereich (Art. 2 DS-GVO) -- III. Vereinbarkeit der DS-GVO mit dem Primärrecht (Art. 5 EUV) -- 1. Grundsatz der begrenzten Einzelermächtigung (Abs. 1 S. 1 und Abs. 2) -- a. Anwendbarkeit der DS-GVO auf öffentliche Stellen -- b. Verletzung der mitgliedstaatlichen Bildungskompetenz? -- 2. Subsidiaritätsprinzip (Abs. 3) -- 3. Verhältnismäßigkeitsgrundsatz (Abs. 4) , a. Erforderlichkeit -- b. Angemessenheit: Öffnungsklauseln statt Vollharmonisierung -- C. Zwischenfazit -- Kapitel 4: Rechtliche Grenzen der Datenverarbeitung im virtuellen Seminarraum -- 1 Grundrechtliches Spannungsfeld -- A. Vorrangiger Grundrechtsmaßstab im Datenschutzrecht -- B. Wirkungsweise der Grundrechte unter Privaten -- C. Grundrechtsschutz des MOOC-Nutzers -- I. Achtung des Privatlebens (Art. 7 GRCh) sowie Schutz personenbezogener Daten (Art. 8 GRCh bzw. Art. 16 Abs. 1 AEUV) -- II. Berufsfreiheit (Art. 15 Abs. 1 GRCh) -- III. Recht auf Bildung (Art. 14 Abs. 1 GRCh) -- D. Grundrechtsschutz der Verarbeitenden -- I. Grundrechtsberechtigung -- 1. Juristische Personen des Privatrechts -- 2. Aus Drittstaaten -- II. Unternehmerische Freiheit (Art. 16 GRCh) -- III. Eigentumsrecht an Daten? (Art. 17 GRCh) -- 1. Grundlage im Datenschutzrecht? -- 2. Grundlage im Zivilrecht? -- 3. Zwischenfazit -- IV. Staatliche Hochschulen (Art. 13 GRCh) --  2 Die Datenverarbeitung durch den MOOC-Anbieter -- A. Abgrenzung der DS-GVO zur ePrivacy-Regulierung (Art. 95 DS-GVO) -- I. Ehemaliger Vorrang der  11 ff. TMG -- II. Die ePrivacy-RL als lex specialis zur DS-GVO -- III. MOOC-Plattformen als elektronische Kommunikationsdienste? -- 1. Begriff der elektronischen Kommunikationsdienste -- 2. Einordnung von Dienstebündeln -- 3. Autonomer Dienstbegriff in Art. 95 DS-GVO? -- IV. Zwischenfazit -- B. Räumlicher Anwendungsbereich der DS-GVO -- I. Niederlassungsprinzip (Art. 3 Abs. 1 DS-GVO) -- II. Marktortprinzip (Art. 3 Abs. 2 lit. a DS-GVO) -- C. Rechtmäßigkeit der Verarbeitungsgrundlage (Art. 6 DS-GVO) -- I. Einwilligung (Abs. 1 UAbs. 1 lit. a) -- 1. Einwilligungsbewusstsein (Art. 4 Nr. 11 DS-GVO) -- a. Ausdrückliche Einwilligungserklärung -- b. Eindeutig bestätigende Handlung , 2. Bestimmt- und Informiertheit (Art. 4 Nr. 11, Art. 5 Abs. 1 lit. b Hs. 1, Art. 6 UAbs. 1 Abs. 1 lit. a DS-GVO) -- a. Verständlichkeit der Datenschutzerklärung -- b. Sonderproblem: Datenweitergabe an Dritte -- 3. Einwilligungsfähigkeit minderjähriger MOOC-Nutzer (Art. 8 DS-GVO) -- a. "Direkt" im Sinne von "unmittelbar" -- b. "Direkt" im Sinne von "speziell" -- c. Zwischenfazit -- 4. Freiwilligkeit (Art. 4 Nr. 11, Art. 7 Abs. 4, EG 42 und 43 DS-GVO) -- a. Kopplungsverbot (Art. 7 Abs. 4 DS-GVO) -- aa. Vertragsverhältnis zwischen MOOC-Anbieter und MOOC-Nutzer -- (1) Bei kostenpflichtigen Online-Angeboten -- (2) Bei kostenfreien Online-Angeboten -- bb. Erforderlichkeit der Datenverarbeitung für die Vertragserfüllung -- (1) Auslegungsmaßstab der Erforderlichkeit -- (2) Bei kostenpflichtigen Online-Angeboten -- (3) Bei kostenfreien Online-Angeboten -- b. Kein klares Ungleichgewicht (EG 43 S. 1 DS-GVO) -- aa. MOOC-Anbieter als Verantwortlicher (Art. 4 Nr. 7 DS-GVO) -- bb. Mitverantwortlichkeit als Zurechnungsgrundlage -- c. Zwischenfazit -- 5. Widerrufbarkeit (Art. 7 Abs. 3 DS-GVO) -- a. Anforderungen an den MOOC-Anbieter -- b. Widerruf in gegenseitigen Vertragsverhältnissen -- aa. Einschränkung des Widerrufsrechts (alte Rechtslage) -- bb. Keine Einschränkung des Widerrufsrechts (neue Rechtslage) -- 6. Beweislast des MOOC-Anbieters (Art. 7 Abs. 1 DS-GVO) -- 7. Zwischenfazit -- II. Vertragserfüllung (Abs. 1 UAbs. 1 lit. b) -- 1. Verhältnis zum Erlaubnistatbestand der Einwilligung -- 2. Auswirkung eines Widerrufs -- 3. Zwischenfazit -- III. Rechtliche Verpflichtung (Abs. 1 UAbs. 1 lit. c i. V. m. Abs. 3) -- 1. Verhältnis zum Erlaubnistatbestand der Vertragserfüllung -- 2. Erfordernis einer öffentlich-rechtlich gesetzten Verpflichtung -- 3. Anwendungsbeispiel: Editionspflicht des  95 Abs. 1 StPO. , 4. Bedeutung ausländischer Verarbeitungspflichten: e-Discovery -- 5. Zwischenfazit -- IV. Wahrung berechtigter Interessen (Abs. 1 UAbs. 1 lit. f) -- 1. Die berechtigten Interessen an einer Datenweitergabe an Dritte -- a. Interessen des MOOC-Anbieters -- aa. Unternehmerische Freiheit (Art. 16 GRCh) -- bb. Befolgung drittstaatlicher Herausgabepflichten -- b. Interessen von Dritten -- aa. (Potenzielle) Arbeitgeber -- bb. Hochschulen -- cc. Interessen (dritt-)staatlicher Stellen -- 2. Erforderlichkeit der Datenverarbeitung -- 3. Interessen des MOOC-Nutzers -- 4. Interessenabwägung -- a. Abwägungskriterien -- aa. Art und Inhalt der betroffenen MOOC-Nutzerdaten -- (1) Besonders sensible Daten -- (2) Selbst veröffentlichte Daten -- (3) Unrichtige Daten -- bb. Verarbeitungsweise -- cc. Absehbarkeit der Datenweitergabe an Dritte -- dd. Schutzmaßnahmen -- ee. Minderjährige MOOC-Nutzer -- (1) Begriff des Kindes in der DS-GVO -- (2) Verarbeitungsausschluss zugunsten Minderjähriger? -- b. (K)ein Überwiegen der Interessen des MOOC-Nutzers -- c. Non-liquet-Situation -- 5. Zwischenfazit -- V. Zweckänderung (Art. 6 Abs. 4 DS-GVO) -- 1. Ausgangspunkt: Zweckbindungsgrundsatz (Art. 5 Abs. 1 lit. b Hs. 1 DS-GVO) -- 2. Regelungsgehalt -- a. Einwilligung in die Zweckänderung -- b. Vorschrift zum Schutz der Gemeinschaftsgüter des Art. 23 Abs. 1 DS-GVO -- c. Kompatibilitätstest -- aa. Verbindung der beiden Zwecke (lit. a) -- bb. Verarbeitungskontext (lit. b) -- cc. Art des Datums (lit. c) -- dd. Folgen für den Betroffenen (lit. d) -- ee. Geeignete Garantien (lit. e) -- 3. Eigenständiger Erlaubnistatbestand? -- 4. Privilegierte Zwecke (Art. 5 Abs. 1 lit. b Hs. 2 DS-GVO) -- a. Folgen der Vereinbarkeitsfiktion -- b. Big-Data-Analysen und Profiling als statistische Zwecke? -- D. Verarbeitung besonders sensibler MOOC-Nutzerdaten (Art. 9 DS-GVO) -- I. Verarbeitungsverbot (Abs. 1) , 1. Anwendung auf bloße Ausgangsdaten -- 2. Objektivierter Verarbeitungskontext -- 3. ,Infektionswirkung' besonders sensibler Daten -- II. Ausnahmetatbestände (Abs. 2) -- 1. Einwilligung (lit. a Hs. 1) -- 2. Offenkundig öffentlich gemachte Daten (lit. e) -- 3. Zulässigkeit einer Zweckänderung nach Art. 6 Abs. 4 DS-GVO -- III. Zwischenfazit -- E. Allgemeine Anforderungen der DS-GVO -- I. Betroffenenrechte der MOOC-Nutzer (Art. 12 ff. DS-GVO) -- 1. Informationspflichten des MOOC-Anbieters -- a. Bei einer Direkterhebung der Nutzerdaten (Art. 13 DS-GVO) -- b. Bei einer Dritterhebung der Nutzerdaten (Art. 14 DS-GVO) -- 2. Auskunftsanspruch (Art. 15 DS-GVO) -- a. Anspruchsinhalt -- b. Anspruchspräzisierung als Mitwirkungspflicht? -- c. Erforderliche Datenspeicherung des MOOC-Anbieters -- d. Unionsrechtswidrigkeit des  34 Abs. 1 Nr. 2 BDSG -- 3. Widerspruchsrecht (Art. 21 DS-GVO) -- a. Gegen Verarbeitungen auf Grundlage von Art. 6 Abs. 1 UAbs. 1 lit. f DS-GVO (Abs. 1) -- b. Gegen Direktwerbung (Abs. 2) -- 4. Recht auf Löschung (Art. 17 DS-GVO) -- a. Löschungsrecht bzw. -pflicht (Abs. 1) -- aa. Zweckfortfall (lit. a) -- bb. Widerspruch (lit. c) -- cc. Unrechtmäßige Datenverarbeitung (lit. d) -- dd. Minderjährigenschutz (lit. f) -- b. "Recht auf Vergessenwerden" (Abs. 2) -- c. Ausnahmen (Abs. 3) -- 5. Recht auf Datenübertragbarkeit (Art. 20 DS-GVO) -- a. Anwendbarkeit auf drittbezogene Nutzerdaten -- b. Interoperabilität der herauszugebenden Nutzerdaten -- II. "Computer says no" - vollautomatisierte Entscheidungsverfahren und Profiling (Art. 22 DS-GVO) -- 1. Ausschließlich automatisierte Entscheidungsverfahren -- a. Anwendungsbeispiel: vollautomatisierte Bewertungssysteme -- b. Kein Dazwischentreten eines Menschen -- 2. Entscheidungswirkung -- a. Anwendungsbeispiel: algorithmenbasierte Studienberatungsprogramme -- b. Erheblichkeit der Entscheidungswirkung , c. Lediglich nachteilhafte Entscheidungen?
    Additional Edition: Erscheint auch als Druck-Ausgabe Botta, Jonas Datenschutz bei E-Learning-Plattformen : Rechtliche Herausforderungen digitaler Hochschulbildung am Beispiel der Massive Open Online Courses (MOOCs) Baden-Baden : Nomos Verlagsgesellschaft,c2020 ISBN 9783848764013
    Language: German
    Subjects: Law , General works
    RVK:
    RVK:
    Keywords: Europäische Union ; Deutschland ; E-Learning ; Massive Open Online Course ; Hochschulbildung ; Informationelles Selbstbestimmungsrecht ; Datenschutz ; Deutschland ; E-Learning ; Internet ; Systemplattform ; Datenschutz ; Hochschulschrift ; Hochschulschrift
    URL: Volltext  (URL des Erstveröffentlichers)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 10
    UID:
    kobvindex_ERBEBC6946668
    Format: 1 online resource (227 pages)
    Edition: 1
    ISBN: 9783609165219
    Note: Intro -- 1 Grundsätzliches zum Schutz von Daten -- 1.1 Der Begriff „Daten" -- 1.2 Der Begriff „Algorithmus" -- 1.3 Der Begriff „Information" -- 1.4 Zusammenspiel von „Daten", „Algorithmen" und „Informationen" -- 2 Der Gesetzesdschungel im Bereich des Schutzes von Daten -- 2.1 Das Medizinprodukterecht -- 2.2 Das Patientengeheimnis/die ärztliche Schweigepflicht -- 2.3 Das Datenschutzrecht -- 2.4 Das Wettbewerbsrecht -- 2.5 Das Zivilrecht -- 2.6 Das Strafrecht -- 2.7 Das Straf-/Zivilprozessrecht -- 2.8 Das öffentliche Recht -- 2.9 Das Steuerrecht/das Handelsrecht -- 2.10 Das Sozialrecht -- 3 Die DSGVO als Revolution oder Evolution?! - Richtlinie vs. Verordnung und Auswirkungen auf das nationale Recht -- 3.1 Die EU-Datenschutzrichtlinie -- 3.2 Die DSGVO und das nationale Recht -- 4 Hauptakteure beim Datenschutz - Betroffener/Verantwortlicher -- 4.1 Betroffener -- 4.2 Verantwortlicher -- 4.2.1 Verantwortlicher/Geheimnisträger -- 4.2.2 Einzelpraxen -- 4.2.3 Gemeinschaftspraxen -- 4.2.4 Praxisgemeinschaften -- 4.2.5 Medizinische Versorgungszentren -- 4.2.6 Krankenhäuser -- 4.2.7 Belegärzte -- 4.2.8 Ermächtigte Krankenhausärzte -- 4.2.9 Betriebsärzte -- 5 Anwendungsbereich der DSGVO (Wann ist das Datenschutzrecht/die DSGVO zu beachten?) -- 5.1 Einführung -- 5.2 Sachliche Anwendbarkeit der DSGVO -- 5.2.1 Personenbezug der Daten -- 5.2.2 Verarbeitung -- 5.2.3 Automatisierte Datenverarbeitung -- 5.2.4 Datenverarbeitung in einem „Dateisystem" -- 5.2.5 Ausnahmen bei der Anwendung -- 5.2.6 Schlussfolgerung -- 6 Relevante Begrifflichkeiten -- 6.1 Personenbezogene Daten -- 6.2 Datenverarbeitung -- 6.3 Pseudonymisierung -- 6.4 Dateisystem -- 7 Allgemeine Prinzipien beim Schutz von Patientendaten -- 7.1 Allgemeines -- 7.2 Rechtmäßigkeit -- 7.3 Treu und Glauben/Fairness -- 7.4 Transparenz -- 7.5 Zweckbindung -- 7.6 Datenminimierung -- 7.7 Speicherbegrenzung , 7.8 Richtigkeit -- 7.9 Integrität und Vertraulichkeit -- 7.10 Rechenschaftspflicht -- 8 Legitimationen zur Verarbeitung von Patientendaten in einer Arztpraxis -- 8.1 Allgemeines -- 8.2 Wichtige Rechtsgrundlagen für die Verarbeitung von Patientendaten -- 8.2.1 Verarbeitung zum Schutz lebenswichtiger Interessen bei Einwilligungsunfähigkeit des Patienten -- 8.2.2 Verarbeitung zur Geltendmachung/Verteidigung von Rechtsansprüchen -- 8.2.3 Verarbeitung zu Behandlungszwecken u.V.m. -- 8.2.4 Verarbeitung aufgrund des Interesses der öffentlichen Gesundheit -- 8.2.5 Verarbeitung zu Forschungszwecken -- 8.2.6 Verarbeitung von genetischen Daten -- 8.3 Einwilligung des Patienten -- 8.3.1 Freiwilligkeit/Kopplungsverbot -- 8.3.2 Bestimmtheit der Einwilligung -- 8.3.3 Informiertheit des Betroffenen -- 8.3.4 Unmissverständlichkeit der Einwilligungserteilung -- 8.3.5 Form der Einwilligungserklärung -- 8.3.6 Widerrufbarkeit der Einwilligung -- 8.3.7 Zwingende Notwendigkeit einer Einwilligung durch Gesetz -- 8.3.8 Einwilligung von Minderjährigen -- 9 Rechte der Patienten -- 9.1 Allgemeines -- 9.2 Transparenzpflicht -- 9.3 Informationspflicht bei Direkterhebung -- 9.4 Informationspflicht bei Dritterhebung -- 9.5 Auskunftsrecht des Patienten -- 9.6 Erfüllung des Auskunftsanspruchs in der Praxis -- 9.7 Einsichtsrecht -- 9.8 Berichtigung -- 9.9 Aufbewahrung und Löschung von Daten -- 9.10 Recht auf Einschränkung der Verarbeitung/Sperrung -- 9.11 Mitteilungspflicht über Berichtigung, Löschung oder Sperrung -- 9.12 Recht auf Datenübertragbarkeit -- 10 Anforderungen an die Erhebung von Patientendaten/die Behandlungsdokumentation -- 11 Verarbeitungsverzeichnis -- 11.1 Allgemeines -- 11.2 Der Wortlaut des Art. 30 und des Erwägungsgrunds 82 -- 11.3 Zielsetzung/Zweck(e) des Verarbeitungsverzeichnisses -- 11.4 Datenverarbeitungstätigkeiten in einer Arztpraxis , 11.5 Die Rechenschaftspflicht und das Verarbeitungsverzeichnis -- 11.6 Schriftlich oder digital? -- 11.7 Inhalt des Verarbeitungsverzeichnisses -- 11.7.1 Namen und Kontaktdaten -- 11.7.2 Bezeichnung und Kurzbeschreibung des Prozesses -- 11.7.3 Zwecke der Verarbeitung -- 11.7.4 Kategorien betroffener Personen und personenbezogener Daten -- 11.7.5 Kategorien von Empfängern -- 11.7.6 Übermittlungen in Drittländer -- 11.7.7 Speicherdauer -- 11.7.8 Technische und organisatorische Maßnahmen -- 11.8 Verpflichtung zur Erstellung des Verzeichnisses -- 11.9 Ausnahmen von der Verpflichtung zur Führung des Verarbeitungsverzeichnisses -- 12 Sicherheit der Datenverarbeitung - Risiko -- 12.1 Grundsätzliche Pflichten zur Einhaltung des Datenschutzes -- 12.1.1 „Risiken für Rechte und Freiheiten von natürlichen Personen" -- 12.1.2 Rechte und Freiheiten natürlicher Personen -- 12.1.3 Begriff des Risikos -- 12.1.4 Risikobeurteilung -- 12.2 Sicherheit der Verarbeitung -- 12.2.1 Pseudonymisierung -- 12.2.2 Verschlüsselung -- 12.2.3 Die „klassischen" Ziele der Informationssicherheit -- 12.2.4 Maßnahmen zur Erfüllung der datenschutzrechtlichen Prinzipien -- 12.3 Datenschutz durch Technikgestaltung und durch datenschutzfreundliche Voreinstellungen -- 13 Verletzung des Schutzes von Daten/Meldepflichten -- 13.1 Meldepflicht an die Aufsichtsbehörde -- 13.2 Meldepflicht an den Betroffenen -- 14 Pflicht zur Vornahme einer Datenschutzfolgenabschätzung -- 14.1 Einführung in die Datenschutzfolgenabschätzung -- 14.2 Pflicht zur Durchführung -- 14.3 Verpflichteter zur DSFA = Der Verantwortliche -- 14.4 Verarbeitungsvorgang -- 14.5 Erforderlichkeit der Durchführung -- 14.6 Inhalt der DSFA und ihrer Dokumentation -- 14.7 Zeitpunkt der Durchführung einer DSFA -- 14.8 Konkrete Durchführung einer DSFA -- 14.9 Konsultation der Aufsichtsbehörde , 15 Datenschutzbeauftragter - Pflicht zur Bestellung/Aufgaben etc. -- 15.1 Wann muss ein DSB bestellt werden? -- 15.2 Welche Anforderungen muss ein DSB erfüllen? -- 15.3 Welche Aufgaben muss ein DSB erfüllen? -- 16 Empfehlungen zur Umsetzung des Schutzes von Daten in der Praxis -- 16.1 Allgemeines zum technischen und organisatorischen Schutz von (Patienten-)Daten -- 16.2 Räumliche Ausgestaltung und Praxis-organisation -- 16.3 Sicherheitsvorkehrungen bei externer elektronischer Kommunikation -- 16.3.1 Pflichten bei der elektronischen Kommunikation -- 16.3.2 Übermittlung und Empfang via Fax -- 16.3.3 Übermittlung und Empfang via E-Mail -- 16.3.4 Einsatz mobiler Geräte wie Smartphones und Apps -- 16.4 Der „Praxisauftritt" im Netz -- 17 Verarbeitung von Daten bei Einschaltung Externer -- 17.1 Empfänger -- 17.2 Gemeinsam für die Verarbeitung Verantwortliche -- 17.2.1 Allgemeines zur gemeinsamen Verarbeitung -- 17.2.2 Gemeinsame Entscheidung über Zwecke und Mittel der Verarbeitung -- 17.2.3 Gemeinsame Vereinbarung/Vertrag -- 17.2.4 Haftung -- 17.2.5 Besondere Verpflichtungen gemeinsam Verantwortlicher -- 17.3 Auftragsverarbeiter/Auftragsverarbeitung -- 17.3.1 Typische Merkmale einer Auftragsverarbeitung -- 17.3.2 Problematik der Verwendung von vom Auftragsverarbeiter vorbereiteten Standard-verträgen -- 17.3.3 Besondere Auswahl des Auftragsverarbeiters -- 17.3.4 Ärztliche Verschwiegenheitspflicht vs. Auftragsverarbeitung -- 17.3.5 Folgen bei Verstößen -- 17.3.6 Vertrag mit dem Auftragsverarbeiter (Inhalt) -- 17.4 Übermittlung an einen weiteren Verantwortlichen -- 17.5 Abgrenzungsfragen -- 18 Aufsichtsbehörden bei Berufsgeheimnisträgern und ihre Befugnisse -- 18.1 Befugnisse der Aufsichtsbehörde -- 18.2 Einschränkung -- 19 Verstöße gegen die DSGVO/den Schutz von Daten und drohende Sanktionen -- 19.1 Haftung und Recht auf Schadensersatz , 19.2 Verhängung von (verhältnismäßigen) Bußgeldern -- 19.3 Sanktionen (Datenschutzstrafrecht) -- 19.4 Weitere Möglichkeiten/Maßnahmen, die bei Verstoß gegen die DSGVO drohen -- 20 Nützliche Internetadressen
    Additional Edition: Print version: Spyra, Gerald Die Arztpraxis - Datenschutz und Datensicherheit nach der neuen Datenschutzgrundverordnung Heidelberg : ecomed verlag,c2019 ISBN 9783609103679
    Keywords: Electronic books.
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. Further information can be found on the KOBV privacy pages