Von smarten Produktempfehlungen bis zu fehlerhaften Verhaltensbewertungen

Die meisten von uns haben bereits auf die eine oder andere Art Berührungspunkte mit den guten, aber auch schlechten Seiten von Algorithmen gehabt. Manchmal zeigen sie uns tolle Inspirationen für Geschenke oder Gadgets von Software-Engines, die auf Produkt-Empfehlungen ausgelegt sind. Aber manchmal wundern wir uns doch ein wenig darüber, warum uns die gleiche Engine eine zweite, identische Waschmaschine vorschlägt, die ich am Tag zuvor gekauft habe.

Bei Algorithmen – wie bei den meisten von Menschen geschaffenen Dingen – sind Fehler und Vorurteile inbegriffen. Während der Kauf einer Packung Toilettenpapier höchstwahrscheinlich darin resultiert, dass ich in einigen Tagen oder Wochen wieder eine Packung kaufen werde, verhält sich das bei einer gerade erworbenen Waschmaschine doch ein wenig anders – falls ich nicht gerade ein Händler für elektronische Haushaltswaren bin, der seine Vorräte mit virtuellen Warehouse-Deals aufstockt.

Für den Algorithmus ist das jedoch unerheblich. Weder er noch seine Ingenieure sind in der Lage, diese Art von Kundenverhalten und Vorurteile von den vorhandenen Daten auszuschließen – es sei denn, es wird speziell danach gefragt bzw. in Auftrag gegeben, diese Ungereimtheiten zu beseitigen. In der Summe werden sich hier sicherlich einige kleinere Fehler ergeben, doch wenn ein Mailing dazu führt, dass die Verkäufe von Waschmaschine steigen, wird niemand den Algorithmus hinterfragen.

Nun handelt es sich in diesem Szenario um eine fehlplatzierte Werbung; das kennen die meisten von uns und es lässt sich mit einem leichten Kopfschütteln abtun. Doch was, wenn ein Algorithmus keine harmlosen Produkt-Empfehlungen gibt, sondern unser menschliches Verhalten bewertet?

Zum menschlichen Verhalten gehört mitunter unser Kaufverhalten. Oftmals ist hier nicht nur eine bestimmte Nachfrage für ein bestimmtes Produkt von Nöten, sondern auch eine gewisse Liquidität – die aus verschiedenen Perspektiven völlig anders wahrgenommen werden kann.

Eine komplette Industrie von Kreditinstituten zielt auf Individuen ab, dessen Kredit-Scores von der Schufa-Agentur als so niedrig eingestuft werden, dass reguläre Kreditanträge oder Ratenzahlungen für sie automatisch abgelehnt werden. Die Schufa nutzt einen Algorithmus, von dem angenommen wurde, dass er eine gute Idee wäre, um Unternehmen daran zu hindern, Produkte an jene Personen zu verkaufen, die nicht in der Lage waren für ihre Waschmaschine zu bezahlen (kein Scherz). In der jüngsten Vergangenheit haben jedoch immer mehr Einzelfälle gezeigt, dass der Scoring-Algorithmus mit Skepsis zu betrachten ist. Während einige Einflüsse auf den individuellen Erfahrungen über die Zeit hinweg beruhen, muss ein Score auch für diejenigen erstellt werden, über die bisher noch keine Erfahrungen gesammelt werden konnten und noch keine Berührungspunkte mit der Schufa hatten – beispielsweise weil sie zu jung sind. Hier kommt die Voreingenommenheit des Algorithmus ins Spiel. Soziodemografische Daten werden hochgerechnet und erstellen Gruppen von Personen, denen eine höhere oder niedrigere Wahrscheinlichkeit für die Zahlung eines Kredites zugeschrieben wird. Hier hat ein Ansatz von Reverse Engineering gezeigt, dass jungen, männlichen Personen eine geringere Kreditwürdigkeit zugesprochen wird, obwohl es keine Einträge über ausstehende oder nicht-getätigte Zahlungen gab. Auf diesen Ergebnissen basierend hat sich 2018 eine Behörde des deutschen Justizministeriums für ein verbrauchergerechtes Scoring eingesetzt, um unethisches Verhalten durch einen Algorithmus zu vermeiden oder zumindest zu minimieren.

Während der Fortschritt in Deutschland innerhalb der öffentlichen Behörden noch in Arbeit ist, hat die Regierung von Neuseeland eine Reihe von Standards für den Einsatz von Algorithmen bei staatlichen Einrichtungen erarbeitet, die dabei helfen sollen, die ethischen Kriterien einzuhalten. Wie The Guardian berichtet, haben sich 19 Regierungsbehörden Neuseelands dieser Standards verpflichtet. Die einzelnen Abteilungen sollen demnach Transparenz in den folgenden Bereichen gewähren:

  • Wie Entscheidungen durch Algorithmen beeinflusst werden
  • Erklärungen erfolgen in leicht-verständlichem Englisch
  • Informationsfreigabe über die Prozesse, die angewendet wurden und
  • die Identifizierung und das Management von Voreingenommenheiten innerhalb Algorithmen

Weiterhin wird berichtet, dass auch auf die Sicht der Māori, die Einheimischen Neuseelands, in Bezug auf das Sammeln der Daten Rücksicht genommen werden soll. „This is important. Algorithms tend to be written by people from other cultures and Māori are disproportionately on the wrong end of bad decisions“, schreibt Journalist Bill Bennett. Das zeigt besonders: Nicht nur Algorithmen, sondern auch ihre Erschaffer, die Ingenieure, sind voreingenommen.

Dabei ist die Situation in Neuseeland eine andere, als die zuvor geschilderte hier in Deutschland. Mithilfe von Algorithmen wurde die Wahrscheinlichkeit berechnet, welche Māori-Hälftlinge in Gefängnissen eher dazu tendieren wieder verhaftet zu werden als andere Insassen. Das deutsche Datenschutzgesetz dient bereits zur Prävention, spezifische Daten wie die Nationalität, Geburtsort oder Gesichtsmerkmale zur Verhaltensanalyse zu nutzen. Da in Neuseeland bislang kein vergleichbares Gesetz verabschiedet wurde, scheinen die neuen Standards ein guter und wichtiger Schritt in die richtige Richtung zu sein.

Schaut man jetzt ein wenig über den Horizont hinaus, zielen die europäische Datenschutz-Grundverordnung sowie das deutsche Pendant dazu darauf ab, vor allem Unternehmen zu kontrollieren – nicht aber öffentliche Behörden. Während ich nun das Double-Opt-In-Verfahren durchlaufen muss, um überhaupt Werbung für Schuhe zu erhalten, fragt mich nicht eine Behörde, ob es für mich in Ordnung ist, das jede Behörde – privat oder öffentlich, profit oder non-profit – erfährt, dass ich von Stuttgart nach München gezogen bin. Und während ein Unternehmen wie die Schufa Behörden über mich und die Nutzung meiner Daten Berichterstattung gewährleisten muss, sowie die Tatsache, dass ich nach Art. 15, DS-GVO, in regulären Intervallen ebenfalls einen Bericht anfordern kann, sieht die Situation bei öffentlichen Behörden weitaus anders aus: Es würde mich nicht stören, eine ähnliche Anfrage an ein lokales Verwaltungsbüro zu senden – wissend, dass sie weder in der Lage dazu sind noch gewollt sind, mit mir zu teilen, welche Informationen sie über mich besitzen. Nichtsdestotrotz kann ich eine Anfrage über Daten ANDERER Personen stellen, so lange ich glaube, dass sie registrierte Bürger sind und ich bestätige, dass ich die Daten nicht für Marketing-Zwecke nutzen werde.

Nun stellen wir uns einmal – etwas überspitzt – vor, dass solche E-Mails zur Realität gehören würden:

Betreff: Ihre neue Waschmaschine

Lieber Kunde,

Ich habe mitbekommen, dass Sie kürzlich eine Waschmaschine im örtlichen Elektronikfachhandel erworben haben.
Während unsere KI Ihre IP-Adresse örtlich im Bereich München eingeordnet hat, haben wir bei der Stadt München Ihre private Adresse angefragt. Dadurch ist es uns möglich, Ihre zweite Waschmaschine direkt zu Ihnen nach Hause zu senden – ohne dass Sie ein Registrierungsformular ausfüllen müssen.

Auch wenn Sie Bar bezahlt haben, konnte unsere Überwachungskamera ihre Gesichtsmerkmale auswerten und mit Ihrem Facebook-Profilfoto abgleichen. Mit den gleichen Merkmalen waren wir ebenfalls in der Lage, Ihr LinkedIn-Profil ausfindig zu machen und Ihnen eine Kontaktanfrage mithilfe eines Fake-Profils zukommen zu lassen. Leider haben Sie diese nicht akzeptiert, jedoch war es dank der öffentlichen Informationen, zur Verfügung gestellt von LinkedIn und der Website Ihres Arbeitgebers, möglich, Ihre berufliche E-Mail-Adresse ausfindig zu machen.

Die guten Nachrichten sind: Anhand Ihres Beschäftigungs-Status, Ihres Kredit-Scorings und unserer KI-basierten Berechnung Ihrer Haushaltsgröße, Ihres Einkommens, Ihres Gesundheitsstatus und Ihrer Lebenszeiterwartung sowie der Ihrer gerade erworbenen Waschmaschine, konnten wir ermitteln, dass Sie in etwa 40 Monaten, nach der geplanten Obsoleszenz, eine neue Waschmaschine brauchen werden. Nach Ablauf der verlängerten Garantie von 36 Monaten, die Sie erworben haben, wird Ihre Waschmaschine innerhalb von vier bis sechs Monaten nicht mehr gebrauchsfähig sein.

Daher senden wir Ihnen Ihre neue Waschmaschine genau zur richtigen Zeit, wenn Sie uns eine Vorauszahlung mit einem Rabatt von 20 Prozent der UVP bis 2024 zukommen lassen. Basierend auf dem aktuellen Zinssatz von 0,1% für Ihr Bargeld ist das ein wahres Schnäppchen! Mit den gesparten 20 Prozent können Sie sich doch viel besser mit einem Eis belohnen, vorzugsweise in der Geschmacksrichtung Espresso-Zitrone. Genießen Sie den sonnigen Nachmittag, aber denken sie daran einen Regenschirm mitzunehmen, denn gegen 17:35 Uhr ihrer Ortszeit gibt es eine 50-prozentige Wahrscheinlichkeit am Standort ihrer favorisierten Eisdiele.

 

Übrigens: Sie müssen auf diese E-Mail nicht antworten. Wir werden die Zahlung direkt von Ihrer Kreditkarte abbuchen, sobald Sie das Haus verlassen.

 

Mit freundlichen Grüßen,

KIm

Wäre das nicht schauderhaft?

Die mVISE AG unterstützt Unternehmen entlang des gesamten KI-Workflows, von der professionellen KI Beratung bis hin zur Entwicklung von Algorithmen für die unterschiedlichsten Geschäftsmodelle – und das unter höchster Berücksichtigung des Datenschutzes. Möchten Sie weitere Informationen zum Thema Künstliche Intelligenz erhalten? Dann fordern Sie jetzt Ihr unverbindliches Infogespräch an.

Kategorien

Von smarten Produktempfehlungen bis zu fehlerhaften Verhaltensbewertungen

Die meisten von uns haben bereits auf die eine oder andere Art Berührungspunkte mit den guten, aber auch schlechten Seiten von Algorithmen gehabt. Manchmal zeigen sie uns tolle Inspirationen für Geschenke oder Gadgets von Software-Engines, die auf Produkt-Empfehlungen ausgelegt sind. Aber manchmal wundern wir uns doch ein wenig darüber, warum uns die gleiche Engine eine zweite, identische Waschmaschine vorschlägt, die ich am Tag zuvor gekauft habe.

Bei Algorithmen – wie bei den meisten von Menschen geschaffenen Dingen – sind Fehler und Vorurteile inbegriffen. Während der Kauf einer Packung Toilettenpapier höchstwahrscheinlich darin resultiert, dass ich in einigen Tagen oder Wochen wieder eine Packung kaufen werde, verhält sich das bei einer gerade erworbenen Waschmaschine doch ein wenig anders – falls ich nicht gerade ein Händler für elektronische Haushaltswaren bin, der seine Vorräte mit virtuellen Warehouse-Deals aufstockt.

Für den Algorithmus ist das jedoch unerheblich. Weder er noch seine Ingenieure sind in der Lage, diese Art von Kundenverhalten und Vorurteile von den vorhandenen Daten auszuschließen – es sei denn, es wird speziell danach gefragt bzw. in Auftrag gegeben, diese Ungereimtheiten zu beseitigen. In der Summe werden sich hier sicherlich einige kleinere Fehler ergeben, doch wenn ein Mailing dazu führt, dass die Verkäufe von Waschmaschine steigen, wird niemand den Algorithmus hinterfragen.

Nun handelt es sich in diesem Szenario um eine fehlplatzierte Werbung; das kennen die meisten von uns und es lässt sich mit einem leichten Kopfschütteln abtun. Doch was, wenn ein Algorithmus keine harmlosen Produkt-Empfehlungen gibt, sondern unser menschliches Verhalten bewertet?

Zum menschlichen Verhalten gehört mitunter unser Kaufverhalten. Oftmals ist hier nicht nur eine bestimmte Nachfrage für ein bestimmtes Produkt von Nöten, sondern auch eine gewisse Liquidität – die aus verschiedenen Perspektiven völlig anders wahrgenommen werden kann.

Eine komplette Industrie von Kreditinstituten zielt auf Individuen ab, dessen Kredit-Scores von der Schufa-Agentur als so niedrig eingestuft werden, dass reguläre Kreditanträge oder Ratenzahlungen für sie automatisch abgelehnt werden. Die Schufa nutzt einen Algorithmus, von dem angenommen wurde, dass er eine gute Idee wäre, um Unternehmen daran zu hindern, Produkte an jene Personen zu verkaufen, die nicht in der Lage waren für ihre Waschmaschine zu bezahlen (kein Scherz). In der jüngsten Vergangenheit haben jedoch immer mehr Einzelfälle gezeigt, dass der Scoring-Algorithmus mit Skepsis zu betrachten ist. Während einige Einflüsse auf den individuellen Erfahrungen über die Zeit hinweg beruhen, muss ein Score auch für diejenigen erstellt werden, über die bisher noch keine Erfahrungen gesammelt werden konnten und noch keine Berührungspunkte mit der Schufa hatten – beispielsweise weil sie zu jung sind. Hier kommt die Voreingenommenheit des Algorithmus ins Spiel. Soziodemografische Daten werden hochgerechnet und erstellen Gruppen von Personen, denen eine höhere oder niedrigere Wahrscheinlichkeit für die Zahlung eines Kredites zugeschrieben wird. Hier hat ein Ansatz von Reverse Engineering gezeigt, dass jungen, männlichen Personen eine geringere Kreditwürdigkeit zugesprochen wird, obwohl es keine Einträge über ausstehende oder nicht-getätigte Zahlungen gab. Auf diesen Ergebnissen basierend hat sich 2018 eine Behörde des deutschen Justizministeriums für ein verbrauchergerechtes Scoring eingesetzt, um unethisches Verhalten durch einen Algorithmus zu vermeiden oder zumindest zu minimieren.

Während der Fortschritt in Deutschland innerhalb der öffentlichen Behörden noch in Arbeit ist, hat die Regierung von Neuseeland eine Reihe von Standards für den Einsatz von Algorithmen bei staatlichen Einrichtungen erarbeitet, die dabei helfen sollen, die ethischen Kriterien einzuhalten. Wie The Guardian berichtet, haben sich 19 Regierungsbehörden Neuseelands dieser Standards verpflichtet. Die einzelnen Abteilungen sollen demnach Transparenz in den folgenden Bereichen gewähren:

  • Wie Entscheidungen durch Algorithmen beeinflusst werden
  • Erklärungen erfolgen in leicht-verständlichem Englisch
  • Informationsfreigabe über die Prozesse, die angewendet wurden und
  • die Identifizierung und das Management von Voreingenommenheiten innerhalb Algorithmen

Weiterhin wird berichtet, dass auch auf die Sicht der Māori, die Einheimischen Neuseelands, in Bezug auf das Sammeln der Daten Rücksicht genommen werden soll. „This is important. Algorithms tend to be written by people from other cultures and Māori are disproportionately on the wrong end of bad decisions“, schreibt Journalist Bill Bennett. Das zeigt besonders: Nicht nur Algorithmen, sondern auch ihre Erschaffer, die Ingenieure, sind voreingenommen.

Dabei ist die Situation in Neuseeland eine andere, als die zuvor geschilderte hier in Deutschland. Mithilfe von Algorithmen wurde die Wahrscheinlichkeit berechnet, welche Māori-Hälftlinge in Gefängnissen eher dazu tendieren wieder verhaftet zu werden als andere Insassen. Das deutsche Datenschutzgesetz dient bereits zur Prävention, spezifische Daten wie die Nationalität, Geburtsort oder Gesichtsmerkmale zur Verhaltensanalyse zu nutzen. Da in Neuseeland bislang kein vergleichbares Gesetz verabschiedet wurde, scheinen die neuen Standards ein guter und wichtiger Schritt in die richtige Richtung zu sein.

Schaut man jetzt ein wenig über den Horizont hinaus, zielen die europäische Datenschutz-Grundverordnung sowie das deutsche Pendant dazu darauf ab, vor allem Unternehmen zu kontrollieren – nicht aber öffentliche Behörden. Während ich nun das Double-Opt-In-Verfahren durchlaufen muss, um überhaupt Werbung für Schuhe zu erhalten, fragt mich nicht eine Behörde, ob es für mich in Ordnung ist, das jede Behörde – privat oder öffentlich, profit oder non-profit – erfährt, dass ich von Stuttgart nach München gezogen bin. Und während ein Unternehmen wie die Schufa Behörden über mich und die Nutzung meiner Daten Berichterstattung gewährleisten muss, sowie die Tatsache, dass ich nach Art. 15, DS-GVO, in regulären Intervallen ebenfalls einen Bericht anfordern kann, sieht die Situation bei öffentlichen Behörden weitaus anders aus: Es würde mich nicht stören, eine ähnliche Anfrage an ein lokales Verwaltungsbüro zu senden – wissend, dass sie weder in der Lage dazu sind noch gewollt sind, mit mir zu teilen, welche Informationen sie über mich besitzen. Nichtsdestotrotz kann ich eine Anfrage über Daten ANDERER Personen stellen, so lange ich glaube, dass sie registrierte Bürger sind und ich bestätige, dass ich die Daten nicht für Marketing-Zwecke nutzen werde.

Nun stellen wir uns einmal – etwas überspitzt – vor, dass solche E-Mails zur Realität gehören würden:

Betreff: Ihre neue Waschmaschine

Lieber Kunde,

Ich habe mitbekommen, dass Sie kürzlich eine Waschmaschine im örtlichen Elektronikfachhandel erworben haben.
Während unsere KI Ihre IP-Adresse örtlich im Bereich München eingeordnet hat, haben wir bei der Stadt München Ihre private Adresse angefragt. Dadurch ist es uns möglich, Ihre zweite Waschmaschine direkt zu Ihnen nach Hause zu senden – ohne dass Sie ein Registrierungsformular ausfüllen müssen.
Auch wenn Sie Bar bezahlt haben, konnte unsere Überwachungskamera ihre Gesichtsmerkmale auswerten und mit Ihrem Facebook-Profilfoto abgleichen. Mit den gleichen Merkmalen waren wir ebenfalls in der Lage, Ihr LinkedIn-Profil ausfindig zu machen und Ihnen eine Kontaktanfrage mithilfe eines Fake-Profils zukommen zu lassen. Leider haben Sie diese nicht akzeptiert, jedoch war es dank der öffentlichen Informationen, zur Verfügung gestellt von LinkedIn und der Website Ihres Arbeitgebers, möglich, Ihre berufliche E-Mail-Adresse ausfindig zu machen.

Die guten Nachrichten sind: Anhand Ihres Beschäftigungs-Status, Ihres Kredit-Scorings und unserer KI-basierten Berechnung Ihrer Haushaltsgröße, Ihres Einkommens, Ihres Gesundheitsstatus und Ihrer Lebenszeiterwartung sowie der Ihrer gerade erworbenen Waschmaschine, konnten wir ermitteln, dass Sie in etwa 40 Monaten, nach der geplanten Obsoleszenz, eine neue Waschmaschine brauchen werden. Nach Ablauf der verlängerten Garantie von 36 Monaten, die Sie erworben haben, wird Ihre Waschmaschine innerhalb von vier bis sechs Monaten nicht mehr gebrauchsfähig sein.

Daher senden wir Ihnen Ihre neue Waschmaschine genau zur richtigen Zeit, wenn Sie uns eine Vorauszahlung mit einem Rabatt von 20 Prozent der UVP bis 2024 zukommen lassen. Basierend auf dem aktuellen Zinssatz von 0,1% für Ihr Bargeld ist das ein wahres Schnäppchen! Mit den gesparten 20 Prozent können Sie sich doch viel besser mit einem Eis belohnen, vorzugsweise in der Geschmacksrichtung Espresso-Zitrone. Genießen Sie den sonnigen Nachmittag, aber denken sie daran einen Regenschirm mitzunehmen, denn gegen 17:35 Uhr ihrer Ortszeit gibt es eine 50-prozentige Wahrscheinlichkeit am Standort ihrer favorisierten Eisdiele.

Übrigens: Sie müssen auf diese E-Mail nicht antworten. Wir werden die Zahlung direkt von Ihrer Kreditkarte abbuchen, sobald Sie das Haus verlassen.

Mit freundlichen Grüßen,

KIm

Wäre das nicht schauderhaft?

Die mVISE AG unterstützt Unternehmen entlang des gesamten KI-Workflows, von der professionellen KI Beratung bis hin zur Entwicklung von Algorithmen für die unterschiedlichsten Geschäftsmodelle – und das unter höchster Berücksichtigung des Datenschutzes. Möchten Sie weitere Informationen zum Thema Künstliche Intelligenz erhalten? Dann fordern Sie jetzt Ihr unverbindliches Infogespräch an.

Haben Sie Fragen?

Schicken Sie uns einfach eine E-Mail oder rufen Sie uns an.

Ihr Ansprechpartner
Dr. Kevin J. Mobbs,
Head of Marketing & Inside Sales

Telefon
0211 78 17 80-0

Email
service@mvise.de

Haben Sie Fragen?

Schicken Sie uns einfach eine E-Mail oder rufen Sie uns an.

Ihr Ansprechpartner
Dr. Kevin J. Mobbs,
Head of Marketing & Inside Sales

Telefon
0211 78 17 80-0

Email
service@mvise.de

Haben Sie Fragen?
Sie erreichen uns:
Mo - Fr von 9 bis 17 Uhr

service@mvise.de

Düsseldorf (Zentrale)
mVISE AG
Wahlerstraße 2
40472 Düsseldorf

+49 (0)211 781780-0

Frankfurt am Main
mVISE AG
Insterburger Straße 5
60487 Frankfurt am Main

+49 (0)69 707997-52

Hamburg
mVISE AG
Am Sandtorkai 37
20457 Hamburg

+49 (0)211 781780-0

München
mVISE AG
Wilhelm-Wagenfeld-Straße 26
80807 München

+49 (0)89 21 54 39 48-0

Bonn
elastic.io
Rabinstrasse 4
53111 Bonn

+49 (0)228 534442-21

Datenschutz       Impressum
mVISE AG 2020

SALESPHERE

Die Sales Enablement Platform stellt dem Vertriebs-Team den richtigen Content, zur richtigen Zeit, am richtigen Ort bereit – auch offline.

ELASTIC.IO

Unsere Integrationsplattform-as-a-Service. Die „Mehrfachsteckdose” in der Cloud. Schnell, erweiterbar, elastisch.

RIVERSAND

Omnichannel Management leicht gemacht – mit der Product Information Management Lösung von Riversand.

BUILD IT

Abgestimmt auf Ihr Geschäftsmodell bieten unsere Managed Services zuverlässige Unterstützung in den Bereichen IT-Modernisierung, Cloud Computing und IT-Security.

INTEGRATE & ANALYZE IT

Wir heben den Gehalt Ihrer Daten auf eine neue Stufe und zeigen Ihnen, wie Sie durch Datenintegration und Datenvisualisierung die richtigen Entscheidungen für die Zukunft treffen.

COMMERCIALIZE IT

Wir mobilisieren Ihre Daten und vernetzen diese unternehmensweit, damit Sie für alle Geschäftseinheiten die richtigen Entscheidungen treffen können.

BROSCHÜREN

Erfahren Sie mehr über unsere Produkte.

WHITEPAPER

Unsere Erkenntnisse aus verschiedensten Bereichen im Detail.

FALLSTUDIEN / CASE STUDIES

Lassen Sie sich von unseren Arbeiten überzeugen.

WEBINARE

Unser digitales Klassenzimmer.

MISSION UND VISION

Erfahren Sie mehr über uns und wie wir die digitale Revolution vorantreiben wollen.

KARRIERE

Lust auf neue spannende Herausforderungen? Jetzt Teil unseres Teams werden.

MANAGEMENT

Der Blick hinter die Kulissen: Lernen Sie unseren Vorstand und unseren Aufsichtsrat kennen.

STANDORTE

Unsere fünf Standorte in Düsseldorf, Frankfurt, Hamburg, München und Bonn in der Übersicht.

NEWS UND EVENTS

Die aktuellen Veröffentlichungen und Veranstaltungen nach Themengebieten kategorisiert zur Übersicht.

DAS UNTERNEHMEN

Unternehmensdaten, Unternehmenspräsentation und Börsenportrait.

INVESTOR NEWS

Die letzten Meldungen im Überblick.

BERICHTE UND RESEARCH

Geschäftsberichte und Research-Berichte.

DIRECTORS DEALING

Aktiengeschäfte gemäß § 15a WpHG.

ANSPRECHPARTNER

Investor Relations und Stakeholder Management.

FINANZKALENDER

Konferenzen, Events, Hauptversammlungen und Veröffentlichungen.

DIE AKTIE

Gesamtzahl, Grundkapital und mehr.

WANDELANLEIHEN

Informationen zur Ausgabe einer Wandelanleihe.

CORPORATE GOVERNANCE

Code of Conduct und Satzung.