Informationen zu Cookies und lokalen Einstellungen

Cookies und lokale Einstellungen sind kleine Datenpakete, die es uns und Ihnen erleichtern eine optimal bedienbare Web-Seite anzubieten. Sie entscheiden, welche Cookies und lokale Einstellungen sie zulassen und welche sie ablehnen.

Der Anbieter der Anwendung ist Ihre jeweilige Volksbank und Raiffeisenbank.

Informationen zum Datenschutz entnehmen Sie bitte den Datenschutzhinweisen Ihrer jeweiligen Volks- und Raiffeisenbank.

Notwendige Cookies helfen dabei, Ihnen die Funktionen der Webseite zugängig zu machen, indem sie Grundfunktionen die zuletzt angesehen Wertpapiere und Ihre Entscheidung für oder gegen die Nutzung der jeweiligen Cookies speichert. Die Webseite wird ohne diese Cookies nicht so funktionieren, wie es geplant ist.

Name Anbieter Zweck Ablauf Typ Empfänger der Daten  
CookieConsent8982 Volksbank Raiffeisenbank Regensburg-Schwandorf eG Um diese Cookiebar auszublenden. 1 Jahr Server-Cookie Infront Financial Technology GmbH
Die Cookie-Erklärung wurde das letzte Mal am 10.06.2024 von Infront Financial Technology GmbH aktualisiert.

Volksbank Raiffeisenbank Regensburg-Schwandorf eG

Bitte mindestens 3 Zeichen eingeben.

Factsheet

Microsoft Corp

Hinweis

Sie erhalten zu diesem und zukünftigen Kursalarmen
nur eine E-Mail Benachrichtigung, wenn Sie zum Zeitpunkt
des Auslösens eine E-Mail Adresse hinterlegt und diese
bestätigt haben.

E-Mail Adresse

Notiz hinzufügen

ROUNDUP: KI-Forscher wollen vor Risiken warnen dürfen

05.06.2024 - 07:43:41
SAN FRANCISCO (dpa-AFX) - Eine Gruppe von KI-Forschern unter anderem vom ChatGPT-Erfinder OpenAI fordert das Recht ein, die Öffentlichkeit über Gefahren der Software warnen zu dürfen. Der aktuelle Schutz für Whistleblower reiche nicht aus, betonten die Experten in einem am Dienstag veröffentlichten offenen Brief. Denn dieser sei vor allem auf illegale Aktivitäten von Firmen ausgerichtet - aber bei Künstlicher Intelligenz gebe es in vielen Fällen noch keine rechtlichen Vorgaben. "Einige von uns fürchten zu Recht Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab."

Ein Beispiel dafür wurde nur wenig später bekannt: Der ehemalige OpenAI-Forscher Leopold Aschenbrenner sagte dem "Dwarkesh Podcast", er sei gefeuert worden, nachdem er sich beim Verwaltungsrat der Firma über KI-Sicherheit besorgt gezeigt habe.

Die Forscher riefen die Unternehmen mit fortgeschrittenen KI-Modellen auf, vier Grundsätze zu befolgen. Dazu gehört, den Mitarbeitern nicht negative Äußerungen über ihre Arbeitgeber zu verbieten. Jüngst wurde bekannt, dass OpenAI ehemaligen Mitarbeitern mit dem Verfall ihrer Aktienoptionen drohte, wenn sie die Firma "verunglimpfen" sollten. OpenAI-Chef Sam Altman entschuldigte sich und ließ die Klausel, von der er nichts gewusst habe, streichen. Er behauptete auch, sie sei nie angewendet worden.

Eine weitere Forderung in dem Brief ist ein Verfahren, mit dem Mitarbeiter anonym die Verwaltungsräte von Unternehmen sowie Regulierer über aus ihrer Sicht bestehende Risiken bei KI-Software informieren können. Die müssten auch die Freiheit haben, an die Öffentlichkeit zu gehen, solange es keine internen Wege gebe.

Einige KI-Experten warnen schon lange, die rasante Entwicklung Künstlicher Intelligenz könne zu autonomer Software führen, die sich der Kontrolle der Menschen entziehe. Die Folgen könnten von der Verbreitung von Falschinformation und Jobverlusten in großem Stil bis hin zur Vernichtung der Menschen reichen, heißt es oft. Regierungen arbeiten auch deswegen daran, Regeln für die Entwicklung von KI-Software aufzustellen. OpenAI gilt mit der Software hinter ChatGPT als ein Vorreiter in dem Bereich.

Eine Sprecherin von OpenAI sagte zu dem Brief, das Unternehmen glaube an eine "wissenschaftliche Herangehensweise an Risiken der Technologie". Mitarbeitern stehe frei, auch anonym ihre Sorgen zu teilen. Zugleich dürften dabei aber vertrauliche Informationen nicht öffentlich gemacht werden, die dadurch in die falschen Hände geraten könnten.

Vier aktuelle und zwei frühere Mitarbeiter von OpenAI schlossen sich dem Brief nur anonym an. Unter den sieben Unterzeichnern, die ihre Namen öffentlich machten, sind fünf ehemalige Beschäftigte von OpenAI und ein früherer Mitarbeiter der Google -Tochter DeepMind. Neel Nanda, der derzeit bei DeepMind arbeitet und zuvor beim KI-Start-up Anthropic war, betonte zugleich, dass ihm bei seinem aktuellen und früheren Arbeitgebern nichts untergekommen sei, wovor er warnen wolle.

Altman war im November vom Verwaltungsrat von OpenAI überraschend unter Verweis auf einen Vertrauensverlust herausgedrängt worden. Nur wenige Tage später kehrte Altman wieder auf den Posten zurück, nachdem sich zahlreiche Mitarbeiter und der Großaktionär Microsoft hinter ihn gestellt hatten. Später sagte das damalige Verwaltungsratsmitglied Helen Toner zur Begründung für den Rauswurf unter anderem, das Gremium habe erst aus den Medien davon erfahren, dass ChatGPT veröffentlicht wurde. Der Schritt löste Sorgen aus, dass die Firma die Technologie ohne nötige Sicherheitsvorkehrungen für alle verfügbar gemacht haben könnte.

Zuletzt geriet OpenAI unter Druck, nachdem Schauspielerin Scarlett Johansson von der Firma wissen wollte, wieso eine Stimme von ChatGPT ihrer eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen habe, Sprachdaten dafür zu liefern./so/DP/jha


Quelle: dpa-AFX

Bezeichnung
WKN
Börse
Kurs
Währung
±
±%
Kurs vom
MICROSOFT DL-,00000625 870747
Frankfurt
393,0500
EUR
+0,10
+0,03%
10.06.24
08:05:21
ALPHABET INC.CL C DL-,001 A14Y6H
Frankfurt
163,0200
EUR
-1,22
-0,74%
10.06.24
08:05:00
Seitenanfang