{"id":9197,"date":"2022-11-01T16:17:42","date_gmt":"2022-11-01T15:17:42","guid":{"rendered":"https:\/\/laigo.ai\/?p=9197"},"modified":"2025-08-17T09:51:26","modified_gmt":"2025-08-17T07:51:26","slug":"ai-in-the-eu-artificial-intelligence-regulation","status":"publish","type":"post","link":"https:\/\/laigo.ai\/de\/blog\/ai-in-the-eu-artificial-intelligence-regulation\/","title":{"rendered":"KI in der EU: Verordnung \u00fcber k\u00fcnstliche Intelligenz"},"content":{"rendered":"<div data-elementor-type=\"wp-post\" data-elementor-id=\"9197\" class=\"elementor elementor-9197\" data-elementor-post-type=\"post\">\n\t\t\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-c4a92ea elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"c4a92ea\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-336f62a\" data-id=\"336f62a\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-eeaf5f0 elementor-widget elementor-widget-text-editor\" data-id=\"eeaf5f0\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Wie andere Technologien hat auch der Einsatz k\u00fcnstlicher Intelligenz zwei Seiten: Sie kann dazu dienen, Menschen zu unterst\u00fctzen und ihnen zu helfen, beispielsweise durch pr\u00e4zise medizinische Diagnosen, aber auch dazu, Einzelpersonen oder soziale Gruppen zu manipulieren oder zu diskriminieren. Die Entwicklung und der Einsatz von KI betreffen daher nicht nur Aspekte wie Produktivit\u00e4t oder die Qualit\u00e4t der Arbeitsergebnisse, sondern auch ethische Aspekte wie die Kongruenz von KI-Systemen und deren Einsatz durch Unternehmen, Organisationen oder Institutionen mit Rechten und gesellschaftlichen Werten.<br \/><br \/><\/p><h2><strong>Was sind die Ziele der Verordnung?<\/strong><\/h2><p>Die Position der KI als Schl\u00fcsseltechnologie, die das Potenzial hat, grundlegende Werte zu gef\u00e4hrden, wird von der Europ\u00e4ischen Union mit einer Verordnung \u00fcber k\u00fcnstliche Intelligenz angegangen. Diese soll verhindern, dass die Rechte der B\u00fcrger in der EU durch den Einsatz von KI beeintr\u00e4chtigt werden. Gleichzeitig soll sichergestellt werden, dass die EU ein offener Markt f\u00fcr KI bleibt und die Forschung im Bereich KI fortgesetzt werden kann.<br \/><br \/><\/p><h2><strong>Was genau soll mit der Verordnung geregelt werden?<\/strong><\/h2><p><a href=\"https:\/\/eur-lex.europa.eu\/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0019.02\/DOC_1&amp;format=PDF\"><u style=\"color: #15d5ff;\">Der Vorschlag der Europ\u00e4ischen Kommission zur Regulierung von KI enth\u00e4lt Vorschriften f\u00fcr das Inverkehrbringen.<\/u><\/a>Die Inbetriebnahme und Nutzung von KI-Systemen. Diese werden je nach Risiko f\u00fcr Gesundheit, Sicherheit oder Grundrechte in vier Gruppen unterteilt. F\u00fcr L\u00f6sungen mit geringem oder sehr geringem Risiko sind keine Vorschriften vorgesehen \u2013 allerdings wurde noch nicht genau festgelegt, welche L\u00f6sungen darunter fallen sollen. L\u00f6sungen mit hohem oder spezifischem Risiko m\u00fcssen bestimmte Anforderungen oder Transparenzanforderungen erf\u00fcllen, und L\u00f6sungen mit einem unannehmbar hohen Risiko, die Grundwerte der EU zu verletzen, sollen verboten werden. Dazu geh\u00f6ren beispielsweise \u00dcberwachungssysteme, die von Beh\u00f6rden zur Bewertung des sozialen Verhaltens von B\u00fcrgern eingesetzt werden (Social Scoring).<\/p><ul><li><strong>Hochrisikosysteme<\/strong><\/li><\/ul><p>Zu den Hochrisikosystemen geh\u00f6ren beispielsweise Systeme, die \u201eals Sicherheitskomponenten von Produkten verwendet werden sollen, die einer Konformit\u00e4tsbewertung durch Dritte unterliegen\u201c, und \u201eeigenst\u00e4ndige KI-Systeme, die ausdr\u00fccklich in <u>Anhang III<\/u> die einen wesentlichen Einfluss auf Grundrechte haben.\u201c Dazu geh\u00f6ren Systeme zur biometrischen Identifizierung, zur Verwaltung und zum Betrieb kritischer Infrastrukturen, Systeme zur Auswahl von Personen f\u00fcr den Zugang zu Bildungseinrichtungen, zur Einstellung als Mitarbeiter und Partner in Unternehmen sowie f\u00fcr den Zugang zu staatlichen Dienstleistungen.<\/p><p>Um die Risiken f\u00fcr grundlegende Werte zu verringern, m\u00fcssen diese Systeme bestimmte Anforderungen erf\u00fcllen. Zu den Pflichten der Anbieter und Nutzer geh\u00f6rt es, ein Risikomanagementsystem einzurichten und anzuwenden sowie technische Dokumentationen zu erstellen und zu pflegen. Dar\u00fcber hinaus m\u00fcssen die Systeme \u201evon nat\u00fcrlichen Personen wirksam \u00fcberwacht werden k\u00f6nnen\u201c.<\/p><ul><li><strong>\u201eBestimmte\u201c KI-Systeme<\/strong><\/li><\/ul><p>Dies bezieht sich auf KI-Systeme, die in der Lage sind, Personen zu manipulieren, unabh\u00e4ngig davon, ob sie einer Risikogruppe zugeordnet sind oder nicht. Dazu geh\u00f6ren Systeme wie Chatbots f\u00fcr die Interaktion mit Menschen, Systeme zur Emotionserkennung und biometrischen Kategorisierung oder L\u00f6sungen zur Erstellung von Deepfakes. Anbieter und Nutzer solcher Systeme sind verpflichtet, die betroffenen Personen dar\u00fcber zu informieren, dass sie es mit einem KI-System zu tun haben.<br \/><br \/><\/p><h2><strong>F\u00fcr wen soll die Verordnung gelten? <\/strong><\/h2><p>Die KI-Verordnung soll nicht dazu dienen, Anbieter aus L\u00e4ndern au\u00dferhalb der EU vom EU-Markt fernzuhalten, sondern die B\u00fcrger in der EU davor zu sch\u00fctzen, dass ihre Rechte und ihre Sicherheit beeintr\u00e4chtigt werden. Daher soll die Verordnung f\u00fcr alle Anbieter gelten, \u201edie KI-Systeme in der Union in Verkehr bringen oder in Betrieb nehmen, unabh\u00e4ngig davon, ob diese Anbieter in der Union oder in einem Drittland niedergelassen sind\u201c. Weiterhin betroffen sind \u201eNutzer von KI-Systemen mit Sitz in der Union\u201c sowie Anbieter und Nutzer aus allen L\u00e4ndern, die \u201edie von dem System in der Union erzeugten Ergebnisse\u201c nutzen m\u00f6chten.<br \/><br \/><\/p><h2><strong>Wann tritt die Verordnung in Kraft?<\/strong><\/h2><p>Der Vorschlag der Kommission muss vom Europ\u00e4ischen Parlament und vom Rat der Europ\u00e4ischen Union angenommen werden. Der Fahrplan sieht vor, dass dies bis Ende 2022 geschehen soll. Die KI-Verordnung soll dann zwanzig Tage nach ihrer Ver\u00f6ffentlichung im Amtsblatt der EU, d. h. Ende 2022 oder Anfang 2023, in Kraft treten und voraussichtlich 24 Monate danach gelten, wobei einige Teile bereits fr\u00fcher in Kraft treten sollen.<br \/><br \/><\/p><h2><strong>Fazit<\/strong><\/h2><p>Die Reaktionen auf den Entwurf der EU-Verordnung reichen von \u201ezu lax\u201c bis \u201ezu restriktiv\u201c.<a href=\"https:\/\/www.bundestag.de\/dokumente\/textarchiv\/2022\/kw39-pa-digitales-eu-vo-ki-905934\"><u style=\"color: #15d5ff;\"> Die Zusammenfassung der Anh\u00f6rung des Ausschusses f\u00fcr digitale Angelegenheiten im Bundestag im September 2022<\/u><\/a> ist ein gutes Beispiel daf\u00fcr; die Bewertungen in den anderen EU-Mitgliedstaaten d\u00fcrften \u00e4hnlich breit gef\u00e4chert sein. Es bleibt abzuwarten, wie dies in der endg\u00fcltigen Fassung aussehen wird.<\/p><p>Eines ist klar: Wer in der EU auf den Markt will, muss sich an die dort geltenden Regeln halten \u2013 das wissen wir bereits aus der DSGV. Und viele wollen auf den EU-Markt mit seinen fast 450 Millionen Einwohnern, seiner gro\u00dfen Wirtschaftskraft und seinem hohen Qualifikationsniveau. Vielleicht wird die KI-Verordnung international ebenso Vorbildcharakter haben wie die DSGVO.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<\/div>","protected":false},"excerpt":{"rendered":"<p>Like other technologies, the use of Artificial Intelligence has two sides: It can be used to support and help people, for example with precise medical diagnostics, but also to manipulate or discriminate against individuals or social groups. The development and use of AI thus not only concern aspects such as productivity or the quality of [&hellip;]<\/p>","protected":false},"author":7,"featured_media":18572,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-9197","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-regulation"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/posts\/9197","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/comments?post=9197"}],"version-history":[{"count":0,"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/posts\/9197\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/media\/18572"}],"wp:attachment":[{"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/media?parent=9197"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/categories?post=9197"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/laigo.ai\/de\/wp-json\/wp\/v2\/tags?post=9197"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}