WEBVTT

00:00:00.737 --> 00:00:03.957
Innovation, Cybersicherheit. Mehr als ein Talk.

00:00:04.297 --> 00:00:08.757
Wir machen Hessens anwendungsorientierte Forschung erlebbar und sprechen über

00:00:08.757 --> 00:00:11.037
aktuelle Trends, Themen und unsere Projekte.

00:00:14.157 --> 00:00:19.437
Datenkooperation ohne Risiken. Liegt die sichere KI-Zukunft im Federated Learning?

00:00:19.797 --> 00:00:23.397
Mit dieser provokativen Frage starten wir direkt in die heutige Folge.

00:00:23.397 --> 00:00:25.657
An meiner Seite sind heute zum einen Herr Prof.

00:00:25.857 --> 00:00:28.297
Dr. Amadresa Sadegi und Herr Kuhl.

00:00:28.697 --> 00:00:33.717
Und was uns drei thematisch miteinander verbindet, ist unser gemeinsames Forschungsprojekt.

00:00:33.857 --> 00:00:38.397
Und zwar mit dem Namen F-Lion, Privates und sicheres Federated Learning zur

00:00:38.397 --> 00:00:40.357
kooperativen Datenverarbeitung.

00:00:40.897 --> 00:00:44.217
Mein Name ist Malte Kuckel aus dem Hessen Cyber Competence Center im hessischen

00:00:44.217 --> 00:00:46.597
Ministerium des Innern für Sicherheit und Heimatschutz.

00:00:47.017 --> 00:00:50.157
Dort gibt es das Referat Prävention, Innovation und Schulung.

00:00:50.157 --> 00:00:54.157
Und die Forschungsförderung, die wir unter anderem aus diesem Referat betreiben,

00:00:54.357 --> 00:00:59.297
beruht immer auf einem Ökosystem, also dem Austausch zwischen Forschung und Fachseite.

00:00:59.817 --> 00:01:04.277
Werfen wir doch direkt mal einen Blick in die Fachseite. Sie sind Leiter der

00:01:04.277 --> 00:01:09.177
Abteilung Rechtsextremismus beim Hessischen Landesamt für Verfassungsschutz, kurz dem LFV.

00:01:09.417 --> 00:01:14.477
Und naturgemäß liegt es ja an der Sache, dass Sie nicht häufig Gast in Podcast-Sendungen sind.

00:01:14.997 --> 00:01:19.057
Aber einmal, um so ein Bild für unsere Zuhörerinnen und Zuhörer zu generieren

00:01:19.057 --> 00:01:22.737
draußen. Was ist so ihr Arbeitsalltag? Was treibt sie so um?

00:01:23.210 --> 00:01:28.850
Das Thema Rechtsextremismus ist, glaube ich, aus der täglichen Berichterstattung kaum wegzudenken.

00:01:29.650 --> 00:01:34.710
Das treibt die Menschen, die Politik und die Medien um und wir sind sozusagen

00:01:34.710 --> 00:01:39.250
die Behörde oder die Abteilung, die versucht, fachlich und sicherheitspolitisch

00:01:39.250 --> 00:01:40.530
eine Antwort darauf zu finden.

00:01:40.750 --> 00:01:42.710
Wie gehen wir mit den Strömungen im Land um?

00:01:43.190 --> 00:01:48.430
Was genau ist Rechtsextremismus? Wer sind die Akteure? Und was sind die Narrative,

00:01:48.670 --> 00:01:52.330
um politisches Denken und das Denken in den Köpfen der Menschen zu verändern?

00:01:52.330 --> 00:01:57.710
Und dort Politik und Medien zu beraten, aber auch ganz konkret operative Maßnahmen

00:01:57.710 --> 00:02:02.170
natürlich zu treffen, um eine Antwort für eine gute Sicherheit im Land zu finden.

00:02:02.430 --> 00:02:06.290
Ja, in der heutigen Folge steckt es ja thematisch schon mit drin,

00:02:06.510 --> 00:02:08.630
Datenkooperation ohne Risiken.

00:02:08.830 --> 00:02:10.870
Das ist so der erste Teil dieses Titels.

00:02:11.310 --> 00:02:15.470
Und im Bereich Rechtsextremismus gibt es ja auch diese Strömung der Hassrede.

00:02:15.590 --> 00:02:18.750
Das heißt, wir haben uns zum Gegenstand im Forschungsprojekt gemacht,

00:02:18.750 --> 00:02:22.970
Nicht den gesamten Bereich des Rechtsextremismus ist hier zu betrachten,

00:02:23.330 --> 00:02:25.470
sondern ganz konkret den Bereich der Hassrede.

00:02:25.630 --> 00:02:29.310
Wenn Sie das jetzt so als Stichwort hören, das begegnet Ihnen natürlich täglich,

00:02:29.670 --> 00:02:33.870
können Sie da so ein bisschen noch ein Bild skizzieren für unsere Hörerinnen und Hörer draußen.

00:02:35.250 --> 00:02:39.170
Sprache ist, ob sie jetzt im virtuellen Raum oder auf der Straße gesprochen ist,

00:02:39.770 --> 00:02:45.170
für eines der wesentlichen Betätigungsfelder, denn das, was die Leute im Kopf haben, im Herz haben,

00:02:45.430 --> 00:02:50.530
das äußern sie am Ende auch und das ist für uns natürlich eines der ersten Identifizierungsmerkmale,

00:02:50.770 --> 00:02:56.430
jemanden auch zu verorten in seiner Ideologie und natürlich auch unsere Ableitungen

00:02:56.430 --> 00:02:58.690
vom Sprachgebrauch her zu treffen.

00:02:58.690 --> 00:03:02.750
Ob jemand tief ideologisiert ist und

00:03:02.750 --> 00:03:06.870
auch welche Strömung im Bereich Rechtsextremismus dann jemand angehört.

00:03:07.030 --> 00:03:11.230
Also wir haben vom Neonazi über den subkulturellen Bereich, also das bedeutet

00:03:11.230 --> 00:03:13.890
Kampfsport und Musikszene bis zum Reichsbürger,

00:03:14.490 --> 00:03:19.510
ein breites Portfolio an auch Unterströmungen im Bereich Rechtsextremismus und

00:03:19.510 --> 00:03:22.310
Sprache zeigt das Innere eines Menschen.

00:03:22.630 --> 00:03:27.210
Und insofern haben wir das sehr, sehr genau im Blick und machen daran auch sehr, sehr viel fest.

00:03:27.820 --> 00:03:31.260
Okay, und wenn man jetzt auf den Bereich Datenkooperation schaut,

00:03:31.460 --> 00:03:33.600
was genau ist da Ihre Motivation?

00:03:33.900 --> 00:03:37.140
Also jetzt, als wir Sie damals gefragt haben oder als wir ins Gespräch kamen

00:03:37.140 --> 00:03:40.580
zum Forschungsprojekt, war das ja relativ schnell gefunden, so eine gemeinsame

00:03:40.580 --> 00:03:42.320
Ebene, auf der wir uns da bewegen wollen.

00:03:42.840 --> 00:03:47.260
Wenn Sie jetzt sagen Datenkooperation ohne Risiken, was genau kann man sich darunter vorstellen?

00:03:48.120 --> 00:03:51.700
Das Risiko einer Verfassungsschutzbehörde ist natürlich ganz immens,

00:03:51.940 --> 00:03:54.360
Daten, die bei uns liegen, die sehr, sehr schützenswert sind.

00:03:55.520 --> 00:03:58.820
Anderen handhabbar zu machen. Und das war ja in diesem Projekt auch ausgeschlossen.

00:03:58.920 --> 00:04:02.940
Deswegen war ganz, ganz wichtig aus unserer Perspektive, dass wir nur mit frei

00:04:02.940 --> 00:04:07.500
verfügbaren, anonymen Daten, also da sind keine personenbezogenen Daten enthalten,

00:04:08.200 --> 00:04:09.320
zur Verfügung zu stellen.

00:04:09.820 --> 00:04:14.640
Trotzdem glauben wir, dass das ein guter Ansatz ist, weil es ja gerade um Sprachmuster

00:04:14.640 --> 00:04:17.540
geht und die sind auch frei von der Person, vom Alter, vom Geschlecht.

00:04:18.300 --> 00:04:21.880
Aber sie kehren wieder in bestimmten Kreisen und in bestimmten Strömungen.

00:04:22.080 --> 00:04:23.700
Und das ist das verbindende Element.

00:04:24.020 --> 00:04:28.480
Und von daher glauben wir, dass auch gerade mit anonymisierten Daten,

00:04:28.780 --> 00:04:31.560
die man aber in Breite und in einer großen Menge zur Verfügung stellt,

00:04:31.760 --> 00:04:33.780
gerade ein Schlüssel darin sein kann,

00:04:33.960 --> 00:04:36.780
insbesondere auch für eine Anwendung in der virtuellen Welt,

00:04:36.920 --> 00:04:41.600
dann Sprachmuster zu trainieren und auch wieder zu erkennen und damit eine wesentliche

00:04:41.600 --> 00:04:44.340
Stütze auch in der Bearbeitung des Feldes zu sein.

00:04:45.020 --> 00:04:49.980
Prima, das ist eine wunderbare Überleitung zu unserer Forschungsseite. Vielen Dank.

00:04:50.680 --> 00:04:54.720
Das ist eine sehr wertvolle Grundlage, auf der wir unser Forschungsprojekt aufgebaut

00:04:54.720 --> 00:04:58.080
haben und was eben dann auch Erkenntnisse liefert. Herr Prof.

00:04:58.260 --> 00:05:03.440
Dr. Sadegi, Sie sind an der Technischen Universität Darmstadt Professor für Informatik.

00:05:03.580 --> 00:05:06.720
Sie arbeiten viel auch in der Wirtschaft mit namhaften Firmen zusammen und sind

00:05:06.720 --> 00:05:08.220
hier auch sehr breit aufgestellt.

00:05:08.440 --> 00:05:11.460
Wir haben den Titel der Folge ja heute sehr provokativ formuliert.

00:05:11.620 --> 00:05:15.420
Liegt die sichere KI-Zukunft im Federated Learning?

00:05:15.660 --> 00:05:18.100
Vielleicht sollten wir an dieser Stelle einmal kurz erklären,

00:05:18.220 --> 00:05:23.540
was ist genau Federated Learning? Könnten Sie da ein bisschen abstrakt mal Licht ins Dunkel bringen?

00:05:24.160 --> 00:05:29.940
Also, Federated Learning bietet einen Rahmen, in dem mehrere Parteien,

00:05:30.060 --> 00:05:34.780
zum Beispiel mehrere Behörden, aus den Daten, die ihnen zur Verfügung stehen,

00:05:35.160 --> 00:05:38.860
lernen können, ohne diese Daten miteinander teilen zu müssen.

00:05:38.860 --> 00:05:45.920
Das heißt, man kann sich so vorstellen, dass jede Behörde eigene Algorithmen

00:05:45.920 --> 00:05:50.900
trainiert und anstatt die Daten miteinander zu teilen.

00:05:51.540 --> 00:05:56.220
Teilen sie einfach die Modelle, die trainierten Modelle und die werden dann

00:05:56.220 --> 00:06:02.300
am Ende aggregiert, zusammengestellt und bilden ein mächtigeres sozusagen ganz

00:06:02.300 --> 00:06:04.680
abstrakt gesagt Modell,

00:06:04.880 --> 00:06:08.580
was jede andere Behörde nochmal verwenden kann.

00:06:08.860 --> 00:06:11.000
Und die dann nochmal verbessern kann.

00:06:11.454 --> 00:06:14.414
Um genau das zu verstehen, muss man ja grundsätzlich verstehen,

00:06:14.554 --> 00:06:16.834
wie eine KI überhaupt lernen kann.

00:06:17.374 --> 00:06:20.254
Können Sie da uns nochmal so ein Beispiel geben? Weil Sie sprechen jetzt von

00:06:20.254 --> 00:06:23.174
KI-Tools, die anonymisiert sind.

00:06:23.294 --> 00:06:26.874
Das waren so Begriffe, die schon kamen, die aber trotzdem lernen können.

00:06:27.134 --> 00:06:30.854
Was genau muss man sich darunter vorstellen? Also wenn man von künstlicher Intelligenz

00:06:30.854 --> 00:06:33.874
redet, ich glaube, das ist eigentlich sehr breit.

00:06:35.234 --> 00:06:39.694
Eine wichtige Technologie im Rahmen von künstlicher Intelligenz ist das maschinelle Lernen.

00:06:40.094 --> 00:06:46.914
Und das bedeutet, dass man aus den Daten sozusagen, man versteht,

00:06:47.054 --> 00:06:50.494
was die Geschichte von diesen Daten ist, was sagen diese Daten.

00:06:50.494 --> 00:06:55.634
Um das herauszufinden, möchte man zum Beispiel, ein ganz einfaches Beispiel

00:06:55.634 --> 00:06:57.354
wäre eine Klassifikation.

00:06:58.494 --> 00:07:03.054
Man will einfach verschiedene Bilder von Tieren, wie zum Beispiel Katzen und

00:07:03.054 --> 00:07:06.654
Hunden und Vögeln klassifizieren.

00:07:06.654 --> 00:07:11.494
Und man kann Algorithmen damit sozusagen trainieren,

00:07:11.934 --> 00:07:16.754
indem man zum Beispiel einem Algorithmus zeigt, das ist jetzt eine Katze,

00:07:16.874 --> 00:07:24.334
das ist jetzt ein Hund und wenn die Algorithmen genügend trainiert worden sind,

00:07:24.874 --> 00:07:29.614
dann könnte man dann mit neuen Testdaten kommen und sagen, was ist das jetzt?

00:07:29.674 --> 00:07:31.534
Ist das eine Katze oder ist das ein Hund?

00:07:31.654 --> 00:07:36.174
Das ist sehr einfach gesagt und am Ende sagt ihnen dieser Algorithmus mit einer

00:07:36.174 --> 00:07:38.574
bestimmten Wahrscheinlichkeit, das ist eine Katze.

00:07:38.814 --> 00:07:44.454
Und man möchte gerne, dass diese Wahrscheinlichkeit, diese Genauigkeit immer so hoch wie möglich ist.

00:07:44.754 --> 00:07:48.974
Das ist ein sehr einfacher Klassifikationsalgorithmus. Aber es gibt ja auch

00:07:48.974 --> 00:07:53.454
andere Klassen von maschinellen Lernern, die man verwenden kann.

00:07:53.574 --> 00:07:59.254
Aber federated learning allgemein ist ein bisschen unabhängig von welchen sozusagen,

00:07:59.694 --> 00:08:03.974
welchen Machine Learning Algorithmen oder Machine Learning Algorithmen man verwendet.

00:08:04.634 --> 00:08:07.234
Ich wollte zwei Punkte gerne aktiv aufgreifen.

00:08:08.054 --> 00:08:14.094
Zum einen zum Federated Learning, also wie stellt man oder welche Daten stellt man zur Verfügung und.

00:08:15.505 --> 00:08:20.185
Wir sind uns natürlich als Verfassungsschutzbehörde unserer Rolle bewusst in

00:08:20.185 --> 00:08:22.225
der Gesellschaft und auch der Verantwortung, die wir haben.

00:08:22.825 --> 00:08:27.005
Deswegen geht es hier um Daten, die grundsätzlich im Internet verfügbar sind für jeden.

00:08:27.605 --> 00:08:31.325
Aber der spannende Punkt ist ja genau der, den der Herr Sadegi gerade genannt

00:08:31.325 --> 00:08:35.645
hat, die Einordnung. Und wenn Sie jetzt eine Polizeibehörde oder eine Justizbehörde

00:08:35.645 --> 00:08:38.945
fragen, die kämen in Teilen zu einer anderen Einschätzung.

00:08:39.325 --> 00:08:43.345
Was ist Hassrede oder was ist Hetze? Und das ist gerade das Spannende,

00:08:43.545 --> 00:08:47.185
also genau aus einer Perspektive heraus ein System anzulernen,

00:08:47.465 --> 00:08:49.885
weil wir nochmal mit einem anderen Blick drauf schauen.

00:08:49.885 --> 00:08:55.045
Und auch eine Differenzierung stattfindet zwischen Strafbarkeit nach dem Strafgesetzbuch

00:08:55.045 --> 00:08:59.445
und was schätzt eine Verfassungsschutzbehörde als Extremismus oder als Ideologie

00:08:59.445 --> 00:09:04.705
aufgeladen ein, das ist ganz häufig deckungsgleich, ganz häufig, aber eben nicht immer.

00:09:05.085 --> 00:09:08.905
Und insofern ist ja gerade das der spannende Punkt, dass wir sagen,

00:09:09.065 --> 00:09:15.145
es gibt unterm Strich ganz viel verfügbare Daten, die eine TU sich auch so ziehen könnte.

00:09:15.445 --> 00:09:19.825
Der entscheidende Punkt ist aber, dass wir eine Einschätzung aus Fachsicht geben, Wo, glauben wir,

00:09:20.165 --> 00:09:24.445
handelt es sich eben um Hasssprache, die auch geeignet ist, daraus mehr zu machen,

00:09:24.625 --> 00:09:29.865
also die so aufgeladen ist, dass sich daraus realweltlich, dass unser Sprech

00:09:29.865 --> 00:09:32.825
dann auch Dinge entladen können oder aufbauen können.

00:09:33.125 --> 00:09:37.565
Und das ist ganz, ganz wichtig in diesem Projekt, die zielgenaue Einschätzung

00:09:37.565 --> 00:09:41.805
auch und dann das Trainieren des Systems auch genau zu der Zweckbindung.

00:09:41.805 --> 00:09:45.665
Also halten wir mal fest, bevor so ein System wirklich trainiert werden kann,

00:09:45.845 --> 00:09:47.605
braucht es diese Klassifikation.

00:09:47.945 --> 00:09:51.525
Herr Sadegi, Sie hatten eben gesagt, das sind dann Bilder von Hunden oder Katzen beispielsweise.

00:09:52.005 --> 00:09:55.565
Hier in dem Sinne ist es eine Klassifikation, ist das jetzt Hassrede oder ist

00:09:55.565 --> 00:09:58.545
das keine? Und wenn ja, fällt sie in welchen Bereich auch immer.

00:09:58.905 --> 00:10:02.905
Das kann man ja noch tiefer dann klassifizieren. Und wenn man diesen Datensatz

00:10:02.905 --> 00:10:07.765
sozusagen zur Verfügung hat, dann kommt das KI-Tool und trainiert da drauf.

00:10:07.885 --> 00:10:10.825
Das heißt, das muss man sich draußen so vorstellen wie so eine Art Schablone.

00:10:11.145 --> 00:10:14.445
Diese Schablone wird geformt und geht dann weiter.

00:10:14.578 --> 00:10:17.578
Eine Ebene höher. Das ist das, was Sie eben meinten, Herr Sadegi,

00:10:17.658 --> 00:10:20.338
mit verschiedenen Behörden, die da zusammenarbeiten.

00:10:20.718 --> 00:10:25.278
Diese Schablone wird also in einer jeweiligen Behörde trainiert oder geformt

00:10:25.278 --> 00:10:30.718
in dem Falle, geht eine Ebene nach oben und wird da dann von verschiedenen Schablonen

00:10:30.718 --> 00:10:32.718
verschiedener Behörden. Eine Schablone.

00:10:33.238 --> 00:10:37.038
Es wird eine Schablone daraus gemacht. Und diese eine Schablone geht dann wieder

00:10:37.038 --> 00:10:40.158
zurück an die jeweilige Behörde und wird weiter trainiert.

00:10:40.238 --> 00:10:42.518
Und so verbessert sich diese Schablone immer mehr.

00:10:42.698 --> 00:10:47.418
Ich hatte da von Anfang an immer so dieses Bild des Plätzchen-Ausstechens im Kopf.

00:10:47.578 --> 00:10:49.698
Ich weiß nicht, ob das so richtig passt. Aber so im Sinne von,

00:10:49.778 --> 00:10:52.318
ich habe einen Teig, an dem steche ich irgendwie eine Form aus.

00:10:52.438 --> 00:10:54.378
So ein Tannenbaum werden oder ein Stern.

00:10:54.738 --> 00:10:58.218
Aber so ganz genau weiß man das noch nicht. Und dann wird diese Schablone oder

00:10:58.218 --> 00:11:02.038
dieser Plätzchen-Ausstecher immer weiter verbessert, bis das dann nachher wirklich

00:11:02.198 --> 00:11:06.078
ich dann einen richtigen Plätzchen aussteche im Sinne einer Tanne oder eines Sterns etc.

00:11:06.578 --> 00:11:09.438
Zurückbekomme. Ist das so ein Bild, wenn Sie das hören? Ja, ich meine,

00:11:09.618 --> 00:11:14.418
wenn man das abstrakt, also natürlich müsste man in so einem Gespräch nicht

00:11:14.418 --> 00:11:20.978
unbedingt auf alle formalen Details einzugehen, um wirklich alles objektiv beurteilen zu können.

00:11:20.978 --> 00:11:24.638
Aber was wichtig ist, dass man sich einfach vorstellt, wie Sie gesagt haben,

00:11:25.098 --> 00:11:28.798
jeder hier macht eine eigene Schablone, diese Schablone werden miteinander sozusagen

00:11:28.798 --> 00:11:32.938
aggregiert und dann bekommt man eine Schablone,

00:11:33.078 --> 00:11:41.178
die sozusagen die Anforderungen von Einzelnen, obwohl sie unterschiedlich sind, erfüllt.

00:11:41.178 --> 00:11:46.418
Und die können ja immer weiter diese Schablone nochmal verbessern.

00:11:46.598 --> 00:11:51.178
Und nochmal wird das aggregiert, bis man eine Art Konvergenz findet.

00:11:51.298 --> 00:11:54.878
Das heißt, am Ende wird das so sein, dass man nicht mehr verbessern kann.

00:11:55.418 --> 00:11:59.758
Man erreicht eine bestimmte Genauigkeit zur Einschätzung von,

00:11:59.958 --> 00:12:04.958
ist das eine Hassrede oder ist das diese neuen Beispiele, die jetzt reingekommen sind.

00:12:04.998 --> 00:12:10.438
Erstmal trainiert man, man hat eine Schablone und dann kommen jetzt neue Datensätze.

00:12:11.298 --> 00:12:15.558
Die, die man automatisch erkennen will, ist das jetzt eine Hassrede oder nicht.

00:12:16.058 --> 00:12:20.378
Das heißt, wir haben ja hier eine Möglichkeit, ein KI-Tool zu trainieren,

00:12:20.718 --> 00:12:25.798
ohne dass Sie wirklich Daten, die zu diesem Trainieren zugrunde gelegt werden,

00:12:25.978 --> 00:12:27.738
austauschen müssen mit anderen Behörden.

00:12:27.958 --> 00:12:32.918
Wie genau schätzen Sie das ein, auch im Sinne von Privatsphärenschutz und Schutz

00:12:32.918 --> 00:12:37.298
der Daten etc.? Das ist ja Datenkooperation ohne Risiken, wie es im Titel heißt.

00:12:37.818 --> 00:12:39.198
Wie genau ordnen Sie das ein?

00:12:40.505 --> 00:12:43.765
Ja, unterm Strich kommen wir einem gesetzlichen Auftrag nach,

00:12:43.985 --> 00:12:49.145
sensibel und professionell mit Daten, die bei der Behörde liegen, umzugehen.

00:12:49.485 --> 00:12:55.345
Das Thema spielt bei allen anderen potenziellen Partnern die gleiche Rolle und

00:12:55.345 --> 00:12:58.285
Herr Satiegi hat das ja schon beschrieben, also das auch in anderen Projekten,

00:12:58.485 --> 00:13:03.385
dass natürlich immer ein Punkt ist, dass man miteinander an der Stelle Vertrauen haben muss.

00:13:04.025 --> 00:13:08.065
Und insofern glaube ich aber tatsächlich und das ist ja eben auch die provokante

00:13:08.065 --> 00:13:09.285
Frage, die Sie gestellt haben,

00:13:10.225 --> 00:13:16.025
darin liegt ja gerade der Vorteil eines solchen Modells, dass jeder in diesem

00:13:16.025 --> 00:13:20.025
Frame, der besteht, in die Algorithmen, die dahinter liegen,

00:13:20.825 --> 00:13:27.185
einzahlt in die Kasse sozusagen und dann auch zunächst jeder erstmal sein Ergebnis rausbekommt,

00:13:28.045 --> 00:13:32.165
aber im Hintergrund des Systems die Daten natürlich übereinander gelegt werden,

00:13:32.265 --> 00:13:37.105
anonymisiert und dadurch, als hätte ich jetzt gesagt, am Ende auch eine Konvergenz entsteht.

00:13:37.385 --> 00:13:40.785
Und da sehe ich schon einen großen Vorteil, weil am Ende müssen sich alle dieser

00:13:40.785 --> 00:13:41.825
Herausforderungen stellen.

00:13:43.825 --> 00:13:47.325
Mit gerade auch sicherheitspolitischen Herausforderungen umzugehen.

00:13:47.565 --> 00:13:50.545
Das ist meine tägliche Praxis, meine tägliche Arbeit.

00:13:50.925 --> 00:13:57.825
Also wie finden wir in dieser unbegrenzten Welt des Internets dann auch die

00:13:57.825 --> 00:14:01.945
Menschen, die sich sprachlich entwickeln? Ich meine, auch das wird für uns eine

00:14:01.945 --> 00:14:03.345
spannende Frage für die Zukunft.

00:14:04.085 --> 00:14:07.605
Wie trainieren wir dann ein solches System, wenn es denn mal zur Verfügung steht,

00:14:07.785 --> 00:14:12.385
auch weiter, weil sie Sprache durch geopolitische Krisen, durch Veränderungen

00:14:12.385 --> 00:14:15.245
in unserer Gesellschaft ja weiterentwickelt und das Training von heute kann

00:14:15.245 --> 00:14:20.545
nicht das von morgen sein, weil sie Sprachmodelle verändern und insofern liegt darin doch,

00:14:21.204 --> 00:14:25.704
Unterm Strich der Schlüssel, wenn wir eine Bereitschaft stärken über anonymisierte Daten,

00:14:26.064 --> 00:14:30.724
über ein Federal Learning, dass wir mehr haben, mehr Behörden,

00:14:30.884 --> 00:14:34.864
die dann auch einzahlen in eine gemeinsame Kasse, wo aber am Ende dann ein Produkt

00:14:34.864 --> 00:14:38.204
entsteht, das mehrere nutzen können, ohne dass man sich vollkommen offengelegt hat.

00:14:38.384 --> 00:14:44.364
Im Sinne des Bürgers wohlgemerkt. Wenn diese Hassreden oder extremistische Aussagen

00:14:44.364 --> 00:14:49.424
durch die sozialen Netzwerke, ich sage mal einfach fluten.

00:14:50.944 --> 00:14:59.444
Schätzungsweise je nach Quelle gibt es 250.000 bis 300.000 Hassreden oder beziehungsweise

00:14:59.444 --> 00:15:05.124
extremistische Reden, mit denen man in Deutschland zu tun hat, jeden Tag.

00:15:05.124 --> 00:15:10.284
Und das wäre zwar eigentlich eine kleine Zahl und wenn man das manuell machen

00:15:10.284 --> 00:15:13.524
würde, ist es unmöglich, das von einer zu unterscheiden.

00:15:13.684 --> 00:15:16.864
Das haben ja auch Sozialnetzwerke schon wie Facebook versucht.

00:15:17.164 --> 00:15:20.284
Erstmal, die haben ja auch sehr viele Leute eingestellt, die zum Beispiel bei

00:15:20.284 --> 00:15:24.664
Bildern oder bei bestimmten Aussagen, die wirklich deutlich,

00:15:25.104 --> 00:15:28.964
zum Beispiel das Aufruf zum Mord,

00:15:29.564 --> 00:15:34.564
das kann man ja deutlich erkennen, dass es eine extremistische Aussage ist,

00:15:34.564 --> 00:15:38.244
Aber es gibt auch viele extremistische Aussagen, die sehr subtil sind,

00:15:38.484 --> 00:15:41.324
die auch durch Übersetzungen noch komplexer werden.

00:15:41.764 --> 00:15:45.164
Um diese Strukturen zu erkennen, können die Sprachmodelle helfen,

00:15:45.484 --> 00:15:48.784
die auf den jeweiligen Servern bzw.

00:15:49.104 --> 00:15:55.444
Rechner von Behörden laufen und helfen, um sozusagen, sobald sie trainiert sind,

00:15:56.164 --> 00:16:00.664
dann kommen die neuen Daten. und diese neuen Daten muss man nicht unbedingt

00:16:00.664 --> 00:16:02.984
jetzt zum Trainieren verwenden, sondern man testet die.

00:16:03.504 --> 00:16:09.444
Und die können dann basieren auf, was sie gelernt haben, als die,

00:16:09.925 --> 00:16:14.005
die entsprechende extremistische Struktur erkennen.

00:16:14.345 --> 00:16:18.705
Das ist nicht ganz trivial. Also es ist nicht etwas, was man sagt,

00:16:19.085 --> 00:16:19.705
es ist straightforward.

00:16:20.725 --> 00:16:24.165
Man setzt einfach das Maschinenlernen an, man lernt es.

00:16:24.325 --> 00:16:31.285
Da muss man schon sich überlegen, wie kann man diese Algorithmen am besten mit

00:16:31.285 --> 00:16:32.985
wenig Daten trainieren.

00:16:33.285 --> 00:16:39.145
Wenn Sie jetzt Millionen von Datensätzen haben, das wird natürlich ganz gut sein.

00:16:39.145 --> 00:16:45.385
Aber es wäre auch schön, viel effektiver, viel kostensparender,

00:16:45.525 --> 00:16:51.065
wenn man mit wenig Datensätzen die Algorithmen so gut trainieren könnte.

00:16:51.605 --> 00:16:55.765
Natürlich mit Hilfe von Sprachmodellen und mit innovativen Ideen,

00:16:55.965 --> 00:17:03.205
um am Ende sehr genaue Aussagen machen können, darüber, ob ein Text eine Aussage

00:17:03.205 --> 00:17:04.405
extremistisch ist oder nicht,

00:17:04.745 --> 00:17:09.265
aber dafür wenige Daten zum Trainieren zu verwenden.

00:17:09.485 --> 00:17:13.945
Das erlaubt auch Behörden, nicht sehr viele Daten zu anonymisieren und zu sagen,

00:17:14.385 --> 00:17:16.465
hier, diese Daten sind tatsächlich Hassreden.

00:17:16.765 --> 00:17:23.285
Und dass eine Behörde sagt, das ist für uns Hassrede, das hat man auch erwähnt, dass es nicht immer.

00:17:26.225 --> 00:17:29.965
Dass die Behörden gleiche Meinung sind, Aber es gibt auch unterschiedliche,

00:17:30.105 --> 00:17:32.905
wie die Behörden an die Sache rangehen.

00:17:32.985 --> 00:17:37.765
Also es ist schon sehr spannend, aber es ist auch nicht so einfach,

00:17:37.945 --> 00:17:43.805
dass man trainiert und dann ist alles gut, sondern man braucht schon Innovationen

00:17:43.805 --> 00:17:47.605
hier, um die Strukturen besser und effektiver zu erkennen.

00:17:47.996 --> 00:17:52.016
Und daran lernt ja dann auch die Behörde, beziehungsweise auch das System an sich.

00:17:52.156 --> 00:17:55.576
In dem Moment, wo diese Schablone, um bei diesem Bild zu bleiben,

00:17:55.796 --> 00:17:58.716
immer verbessert wird und man macht es mit mehreren Behörden,

00:17:59.056 --> 00:18:01.896
wird ja auch die Sprache in den Behörden jeweils trainiert.

00:18:01.976 --> 00:18:05.816
Also mit welcher Perspektive schauen wir denn genau auf diese Hassrede drauf?

00:18:05.816 --> 00:18:09.476
Und jetzt fiel so oft diese Begrifflichkeit mehrere Behörden.

00:18:09.696 --> 00:18:13.256
Welche könnten das denn sein, wenn man jetzt nach draußen hört mehrere Behörden?

00:18:13.636 --> 00:18:17.236
Klar, wir haben jetzt Sie als Fachseite, also Landesamt für Verfassungsschutz

00:18:17.236 --> 00:18:21.136
in Hessen, aber natürlich haben auch die anderen Bundesländer entsprechende

00:18:21.136 --> 00:18:22.856
Landesämter für Verfassungsschutz.

00:18:23.216 --> 00:18:26.196
Ist das jetzt so was, wenn man die Perspektive mal eröffnet?

00:18:26.356 --> 00:18:27.996
Also wir haben es jetzt in Hessen angefangen.

00:18:28.256 --> 00:18:32.936
Es hat das Potenzial auch weiterzugehen? Ja, also wenn wir in der Systematik

00:18:32.936 --> 00:18:38.536
bleiben, je mehr Daten in ein System gehen, desto trainierter kann eine Anwendung am Ende auch sein.

00:18:39.716 --> 00:18:42.896
Wäre folgerichtig, dann natürlich die Schlussfolgerung zu sagen,

00:18:42.996 --> 00:18:46.376
je mehr dann, ich habe es eben schon benutzt als Redewendung,

00:18:46.676 --> 00:18:50.916
in die Kasse einzahlen, desto schärfer ist vermutlich am Ende das System.

00:18:51.636 --> 00:18:55.856
Herr Sadegi könnte sicherlich beantworten, ob man eine KI auch übertrainieren

00:18:55.856 --> 00:18:58.836
kann, möglicherweise, durch zu viele Daten.

00:18:59.476 --> 00:19:05.936
Also insofern, ja, würde ich so beantworten, wenn andere den Weg mitgehen würden.

00:19:06.696 --> 00:19:11.276
Nichtsdestotrotz trifft natürlich jedes Land eine eigene Entscheidung und muss

00:19:11.276 --> 00:19:15.376
auch an der Stelle für sich prüfen, wie innovativ man sich sein Arbeitsfeld

00:19:15.376 --> 00:19:18.136
erschließen möchte. Grundsätzlich erstrebenswert ist.

00:19:18.387 --> 00:19:22.667
Aus meiner fachlichen Perspektive wäre das natürlich schon, gerade auch wegen

00:19:22.667 --> 00:19:24.387
unterschiedlicher Bewertungsraster,

00:19:24.627 --> 00:19:28.187
also jetzt nicht nur zwischen den verschiedenen Sicherheitsbehörden,

00:19:28.407 --> 00:19:32.847
auch landesintern, sondern auch über die verschiedenen Verfassungsschutzbehörden

00:19:32.847 --> 00:19:34.827
in einem föderalen Deutschland,

00:19:35.147 --> 00:19:38.887
die sicherlich hier oder dort nochmal unterschiedliche Akzente setzen oder eben

00:19:38.887 --> 00:19:42.767
auch mit unterschiedlichen Akteuren zu tun haben, denn eine extremistische Szene

00:19:42.767 --> 00:19:45.287
in Berlin ist eine andere als in Freiburg.

00:19:45.287 --> 00:19:50.947
Und von daher wäre sicherlich auch mit sprachlichen Nuancen,

00:19:51.007 --> 00:19:55.567
die einfach von West nach Ost und Nord nach Süd entstehen, das hilfreich.

00:19:55.847 --> 00:20:01.287
Man kann es nur bewerben, aber sicherlich trifft dann gerade in so einem System

00:20:01.287 --> 00:20:04.927
jeder seine Entscheidung selbst. Und das ist ja auch, an dieser Stelle muss

00:20:04.927 --> 00:20:08.607
man das ja sagen, wir entwickeln ja kein Produkt mit diesem Forschungsprojekt.

00:20:08.787 --> 00:20:12.267
Da kommt am Ende nichts aus, was jetzt ein anderes Bundesland oder eine andere

00:20:12.267 --> 00:20:16.367
Behörde, sagen wir mal, sich in Anführungszeichen kaufen könnte und einsetzen könnte.

00:20:16.647 --> 00:20:20.467
Wir machen an der Stelle sehr anwendungsorientierte Grundlagenforschung,

00:20:20.587 --> 00:20:24.727
um auch zu zeigen, funktioniert das überhaupt? Ist also diese Fragestellung,

00:20:25.047 --> 00:20:28.907
kann es überhaupt so ein privates, sicheres Federated Learning geben,

00:20:29.167 --> 00:20:31.487
aus dem man halt dann diese Schablonen trainiert?

00:20:31.627 --> 00:20:34.607
Ist diese Methode, die wir da anwenden wollen, überhaupt möglich?

00:20:35.047 --> 00:20:38.127
Und Sie haben jetzt eben auch schon erwähnt, vielleicht kann man auch eine KI

00:20:38.127 --> 00:20:40.567
übertrainieren bei zu vielen Daten.

00:20:40.947 --> 00:20:45.287
Und Herr Sadegi hat da auch schon genickt. Bevor ich Ihnen die Frage jetzt direkt

00:20:45.287 --> 00:20:48.907
stelle, Herr Sadegi, wie viele Datensätze, um mal so ein Gefühl zu bekommen

00:20:48.907 --> 00:20:51.067
von Hassrede, hat man denn da so?

00:20:51.822 --> 00:20:56.382
Über die wir bei uns verfügen, ja. Also wir haben natürlich eigene Feststellungen.

00:20:56.542 --> 00:20:59.842
Wir haben aber auch ganz viel durch Sensibilisierungsgesprächen mit anderen

00:20:59.842 --> 00:21:01.902
Behörden auch Mitteilungen.

00:21:02.242 --> 00:21:06.242
Das geht von kommunalen Behörden über andere Behörden in der Landesverwaltung.

00:21:06.922 --> 00:21:11.442
Von privater Seite. Ich würde das gerne als Geheimnis behalten,

00:21:11.542 --> 00:21:12.722
wie viel es insgesamt ist.

00:21:12.922 --> 00:21:16.982
Aber tatsächlich greifen wir auf einen bunten Fundus zurück,

00:21:17.122 --> 00:21:20.962
der auch nicht nur sich in der virtuellen Welt bewegt, wo es natürlich manchmal

00:21:20.962 --> 00:21:25.442
auch der klassische Brief ist, der irgendwo eingeht, der aber genauso ein Sprachmuster wiedergibt.

00:21:25.862 --> 00:21:29.522
Also insofern würde ich die Frage gerne so beantworten. Wir haben ein breites

00:21:29.522 --> 00:21:33.822
Potpourri an verschiedenen Daten und wir haben alleine aus hessischer Sicht,

00:21:34.402 --> 00:21:39.162
einen großen Fundus, der sicherlich schon mal für ein Grundtraining der Anwendung,

00:21:39.282 --> 00:21:43.782
und Sie haben es ja gesagt, am Ende kein fertiges Produkt, das ist im Grunde mal der Versuch,

00:21:44.502 --> 00:21:46.042
festzustellen, funktioniert es denn?

00:21:46.482 --> 00:21:50.742
Und das, was wir im Moment rausnehmen und rauslesen, ja, es funktioniert auch

00:21:50.742 --> 00:21:56.582
mit den Daten, die wir aufbringen, und insofern würde ich die Frage so beantworten

00:21:56.582 --> 00:21:58.602
wollen. Sehr diplomatisch, prima, ja.

00:21:59.942 --> 00:22:05.642
Ich würde gerne einen Aspekt noch aufgreifen, dass auch aus unserer Perspektive

00:22:05.642 --> 00:22:10.102
das Spannende, also wie präzise und für welchen Anwendungszweck trainiert man

00:22:10.102 --> 00:22:11.442
dann ein Sprachmodell weiter.

00:22:11.682 --> 00:22:15.582
Ja, seit Diggi hat das gesagt, es gibt natürlich verfügbare Sprachmodelle,

00:22:15.722 --> 00:22:19.922
die man verwenden kann, die man weiterentwickeln kann und ein Spannungsfeld,

00:22:20.062 --> 00:22:21.562
und das möchte ich auch nicht unerwähnen lassen,

00:22:21.862 --> 00:22:28.462
aus unserer Sicht der Fachbehörde ist natürlich schon, dass wir uns einer Kritik aussetzen müssen,

00:22:28.962 --> 00:22:30.642
bis wohin geht die Meinungsfreiheit,

00:22:31.262 --> 00:22:32.642
Darüber gibt es viele Diskussionen.

00:22:33.062 --> 00:22:38.222
Das können Sie in vielen Talkshows, auch insbesondere in den sozialen Medien, verfolgen.

00:22:38.902 --> 00:22:43.202
Und ab wo beginnt die Hassrede? Was ist eine Meinung und was ist eigentlich

00:22:43.202 --> 00:22:45.722
schon strafbar? Oder was ist Extremismus?

00:22:46.102 --> 00:22:49.782
Und das ist ganz, ganz wichtig. Und den Punkt möchte ich auch machen, tatsächlich.

00:22:50.502 --> 00:22:55.862
Es geht ja nicht darum, jedem das Wort im Mund rumzudrehen.

00:22:56.162 --> 00:23:01.862
Und jede Meinungsäußerung oder jede Kritik an Regierenden, beispielsweise dann

00:23:01.862 --> 00:23:06.342
zum Extremismus zu stempeln, sondern dann eben auch mit solchen Forschungsprojekten

00:23:06.342 --> 00:23:10.762
zu schauen, wie präzise, wie trendscharf kann man solche Modelle eben auch entwickeln.

00:23:11.002 --> 00:23:15.442
Und aus unserer Perspektive ist natürlich immer derjenige oder verschiedene

00:23:15.442 --> 00:23:18.902
Gruppen, die sich zusammenschließen, vom besonders hohem Interesse,

00:23:19.062 --> 00:23:20.782
die sind aber schwer zu finden in diesem Bereich.

00:23:20.944 --> 00:23:24.784
Sehr, sehr weitläufig im Internet, die eben aus Sprache mehr machen,

00:23:24.944 --> 00:23:30.204
wo es gerade darum geht, vielleicht auch zu bestimmten Taten aufzurufen und

00:23:30.204 --> 00:23:35.384
auch eine schnelle Dynamik, eine schnelle Dramaturgie in der sprachlichen Entwicklung hinzulegen.

00:23:36.224 --> 00:23:40.784
Und meine persönliche Meinung und auch die fachliche ist natürlich,

00:23:40.924 --> 00:23:43.904
natürlich darf man Kritik äußern, das ist immer willkommen, das macht unsere

00:23:43.904 --> 00:23:50.204
Demokratie aus. und wir müssen sprachlich viel aushalten und werden auch noch viel aushalten.

00:23:50.784 --> 00:23:54.224
Aber irgendwann ist natürlich eine Grenze überschritten. Und aus meiner Sicht,

00:23:54.424 --> 00:23:58.384
also wie kann man dann auch weiter, wenn so ein Modell mal entwickelt ist aus

00:23:58.384 --> 00:24:01.124
dem Forschungsprojekt heraus, den Weg dann weitergehen?

00:24:01.344 --> 00:24:02.584
Natürlich haben wir hohes Interesse,

00:24:02.784 --> 00:24:06.604
weil es eben auch eine Masse ist im virtuellen Raum, der wir begegnen.

00:24:06.964 --> 00:24:10.684
Es ist aber gerade Aufgabe einer solchen Behörde und auch von anderen,

00:24:11.404 --> 00:24:15.964
zu versuchen, die Nadel im Heuhaufen zu finden und wo ist der eine,

00:24:16.144 --> 00:24:17.364
der mehr aus Sprache macht?

00:24:17.464 --> 00:24:21.164
Wo ist der eine, der aufruft und der andere auch mitreißen kann, der vielleicht auch.

00:24:22.104 --> 00:24:25.404
Demagogisch auftritt, der verfängt und der Sprache beherrscht,

00:24:26.084 --> 00:24:30.304
und den frühzeitig zu erkennen und da können solche Modelle helfen aus unserer

00:24:30.304 --> 00:24:34.684
Sicht und trotzdem muss am Ende immer noch eine fachliche Entscheidung durch

00:24:34.684 --> 00:24:36.424
Mitarbeiter in der Behörde getroffen werden,

00:24:36.624 --> 00:24:40.884
wo steigen wir weiter ein und wo nicht, aber es kann ein sehr sehr wertvoller

00:24:40.884 --> 00:24:42.184
Steigbügelhalter sein,

00:24:42.604 --> 00:24:45.044
um auch einzusteigen in eine Beobachtung.

00:24:45.204 --> 00:24:47.844
Das ist das, was einen Verfassungsschutz tut. Er beobachtet,

00:24:48.104 --> 00:24:50.044
trifft seine Schlussfolgerungen.

00:24:51.044 --> 00:24:54.704
Aber das ist unterm Strich auch wichtig. Also die Arbeit werden nicht Maschinen

00:24:54.704 --> 00:24:58.604
alleine bewältigen, sondern es ist eine große Unterstützung,

00:24:59.064 --> 00:25:01.604
an der wir arbeiten, die wir auch sehen in der Zukunft.

00:25:02.044 --> 00:25:05.384
Aber wir wissen genau zu unterscheiden zwischen Meinung und Extremismus.

00:25:05.830 --> 00:25:09.330
Und das, was Sie jetzt erwähnen, genau das passiert ja auch im realen Leben.

00:25:09.770 --> 00:25:12.970
Das heißt, auch das Forschungsprojekt selber ist ja nicht losgelöst.

00:25:13.150 --> 00:25:16.430
Also wir befinden uns nicht im Elfenbeinturm und versuchen da mal was Schönes

00:25:16.430 --> 00:25:20.390
zu entwickeln, sondern das ganze Projekt fußt ja auf solchen Arbeitstreffen.

00:25:20.390 --> 00:25:21.610
Also wir nennen das Showfixe.

00:25:22.030 --> 00:25:26.910
Alle paar Monate treffen wir uns zu dritt zusammen in diesem Ökosystem und tauschen

00:25:26.910 --> 00:25:29.530
uns aus, weil das, was Sie sagen, ist ja ganz entscheidend.

00:25:29.590 --> 00:25:33.350
Man muss ja wie mit einer Art Lupe hinschauen und sagen, ist es das auch?

00:25:33.470 --> 00:25:34.890
Ist das der richtige Weg?

00:25:35.190 --> 00:25:38.450
Geht das Forschungsprojekt in die richtige Richtung? Gehen die Schablonen,

00:25:38.550 --> 00:25:43.410
die entwickelt werden, auch in die richtige Richtung, dass man da nachher wirklich was Gutes von hat?

00:25:44.110 --> 00:25:47.390
Wie gesagt, es wird kein Produkt irgendwie entwickelt. Das ist dann der nächste

00:25:47.390 --> 00:25:50.190
Step. Mal schauen, auf welcher Basis wir nachher stehen.

00:25:50.530 --> 00:25:54.270
Auch die Ergebnisse zum Projekt werden veröffentlicht. Das ist ja das etwas,

00:25:54.930 --> 00:25:57.210
also die Projekte selber laufen entlang der Förderrichtlinien,

00:25:57.370 --> 00:25:58.750
deshalb bei Sicherheitsforschung in Hessen.

00:25:58.870 --> 00:26:01.290
Das heißt, da sind wir auch angehalten und das wollen wir auch,

00:26:01.390 --> 00:26:05.590
dass wir da veröffentlichen können, um dann zu schauen, was können wir daraus weitermachen?

00:26:05.710 --> 00:26:07.490
Was kann da weiteres passieren?

00:26:08.050 --> 00:26:11.310
Und Herr Sardegi, mal so einen Blick in die Zukunft. Federated Learning,

00:26:11.450 --> 00:26:13.030
das fiel jetzt als Begriff so häufig.

00:26:13.410 --> 00:26:17.370
Unser Forschungsprojekt selber hat zwei Jahre gedauert. Wie schätzen Sie denn

00:26:17.370 --> 00:26:21.370
das ein aufgrund dieser Entwicklungszyklen, die es in dem KI-Bereich ergibt?

00:26:21.610 --> 00:26:26.390
Wo sehen Sie denn da den technologischen Fortschritt sozusagen beim Federated

00:26:26.390 --> 00:26:27.530
Learning in den nächsten Jahren?

00:26:27.530 --> 00:26:31.650
Ja, das ist eine interessante Frage, weil im Forschungsbereich,

00:26:31.910 --> 00:26:38.650
wir haben jetzt die Anzahl der Veröffentlichungen, die seit 2017,

00:26:39.150 --> 00:26:44.770
wo Google halt mit Federal Learning im realen Welt, also wirklich Einsatz,

00:26:45.850 --> 00:26:51.570
rauskam, obwohl Federal Learning schon vorher von anderen Forschendengruppen, sage ich mal.

00:26:52.690 --> 00:26:53.890
Erfunden wurde.

00:26:53.890 --> 00:26:58.330
Google ist ja die erste Firma, die da rausgekommen ist.

00:26:59.030 --> 00:27:04.170
Bis heute sind mehr als 23.000,

00:27:04.912 --> 00:27:09.812
wissenschaftliche Veröffentlichungen über Föderated Learning veröffentlicht

00:27:09.812 --> 00:27:15.052
wurden und viele von denen benutzen die Aspekte wie Privatheit,

00:27:16.072 --> 00:27:19.732
Vertraulichkeit und Sicherheit.

00:27:20.132 --> 00:27:22.752
Das heißt, wir sind genau auf dem Puls der Zeit mit unserem Veröffentlichungen.

00:27:22.982 --> 00:27:25.922
Das heißt, das ist ein sehr heißer Bereich.

00:27:25.922 --> 00:27:31.022
Man sagt, dass es langsam ausgeforscht wird und trotzdem jedes Jahr kommen weitere

00:27:31.022 --> 00:27:35.822
hunderte Veröffentlichungen aus Firmen wie großen Tech-Firmen,

00:27:35.962 --> 00:27:39.002
aber auch von vielen renommierten Universitäten.

00:27:39.302 --> 00:27:45.942
Also ich sehe das als ein nutzliches Tool, was auch uns erlaubt,

00:27:46.122 --> 00:27:50.842
sozusagen mit weniger komplexer Kryptografie vorzugehen.

00:27:50.842 --> 00:27:57.922
Die Kryptografie brauchen wir immer noch, aber die Komplexität der Kryptografie

00:27:57.922 --> 00:28:02.842
wird weniger, dadurch, dass wir halt dieses Tool haben, dieses Werkzeug haben.

00:28:03.042 --> 00:28:07.602
Und wir können das auch sowohl bei Behörden, sondern auch im industriellen Bereich einsetzen.

00:28:07.822 --> 00:28:13.422
Wir haben ja Erfahrungen mit mehreren verschiedenen Anwendungen in der Allerwelt.

00:28:13.422 --> 00:28:16.982
Aber auf der anderen Seite, weil Fidelity Learning nur einfach einen Rahmen

00:28:16.982 --> 00:28:20.442
bietet und in diesen Rahmen stecken wir unsere Schablonen rein.

00:28:21.322 --> 00:28:26.082
Dadurch, dass wir eine bestimmte Anwendung sozusagen als Ziel uns vornehmen,

00:28:26.822 --> 00:28:32.982
sehen wir auch die Einschränkungen und die Probleme von zum Beispiel Sprachmodellen.

00:28:33.467 --> 00:28:38.647
Inwieweit können sie für bestimmte Anwendungen eingesetzt werden,

00:28:38.987 --> 00:28:47.327
um gerade bei diesen sensiblen Themen wie Pressefreiheit, Freiheit der Meinungäußerung,

00:28:47.487 --> 00:28:55.007
weil da eine Grenze ist, die halt in demokratischen Ländern kann ja sehr schwer sein, das zu bestimmen.

00:28:55.007 --> 00:29:01.907
Ist das jetzt ein Mordruf oder ist das jetzt eine subtile Mordrufe oder sonstige Aspekte?

00:29:02.007 --> 00:29:06.867
Das heißt, Verdeutelern hilft uns auch zu sehen, was die anderen Algorithmen

00:29:06.867 --> 00:29:09.667
für Probleme haben und wie wir die verbessern können.

00:29:09.967 --> 00:29:13.107
Und die werden immer besser, die werden immer interessanter.

00:29:13.107 --> 00:29:17.887
Ja, kommerziell kann ich Ihnen das nicht sagen, aber die Behörden sind ja nicht

00:29:17.887 --> 00:29:24.207
unbedingt auf kommerzielle Erfolge abgezielt, sondern die wollen ja auch der Gesellschaft helfen.

00:29:24.387 --> 00:29:29.447
Und ich bin persönlich sehr kritisch, wenn es um Privatsphäre geht.

00:29:29.887 --> 00:29:34.127
Daher denke ich, dass es auch unser Job ist, also eine soziale Verantwortung

00:29:34.127 --> 00:29:37.307
auch unseren Mitarbeitern und Mitarbeiterinnen beizubringen,

00:29:37.307 --> 00:29:39.527
dass sie mit solchen Daten sehr

00:29:39.527 --> 00:29:44.527
sensibel umgehen und auch die Demokratie schützen, soweit es möglich ist.

00:29:44.607 --> 00:29:48.367
Weil das ist das einzige Gut, was wir in diesen Gesellschaften haben.

00:29:48.547 --> 00:29:52.687
Das wissen viele Leute leider nicht, das nehmen sie ausgegeben.

00:29:52.987 --> 00:29:57.327
Aber es gibt viele andere Orte in dieser Welt, die das nicht haben.

00:29:57.507 --> 00:30:00.107
Und da müssen wir alle mithelfen sozusagen.

00:30:00.467 --> 00:30:03.547
Und dieses Gut nehmen wir besonders ernst. Und deswegen haben wir uns ja auf

00:30:03.547 --> 00:30:06.947
diesen Weg gemacht im Forschungsprojekt, zu schauen, wie man so ein privates

00:30:06.947 --> 00:30:11.567
und sicheres Federated Learning auch gekonnt und seriös vor allen Dingen einsetzen kann.

00:30:12.127 --> 00:30:16.627
Und wer mehr wissen will zum Prozess rund um die Forschungsförderung Cybersicherheit

00:30:16.627 --> 00:30:19.667
und die damit verbundenen Projekte, die vom hessischen Innenministerium heraus

00:30:19.667 --> 00:30:23.907
unterstützt werden, der kann auch gerne in die anderen Folgen dieser Podcast-Serie

00:30:23.907 --> 00:30:26.127
reinhören oder unsere Website besuchen.

00:30:26.347 --> 00:30:29.307
Alle Details dazu befinden sich in den Shownotes dieser Folge hier.

00:30:29.467 --> 00:30:34.107
Und an dieser Stelle sage ich dann herzlichen Dank für Ihre Zeit und Dankeschön.

00:30:34.307 --> 00:30:36.427
Auf Wiederhören. Danke auch. Dankeschön.

