Veröffentlicht von: Benj Edwards via ARS Technica
Peter Thiels Investition in die Trump-Administration zahlt sich mit dieser Ankündigung bereits enorm aus: „Palantir ist stolz darauf, der erste Industriepartner zu sein, der Claude-Modelle in klassifizierte Umgebungen bringt“, um „US-Verteidigungs- und Geheimdienstorganisationen mit leistungsstarken KI-Tools auszustatten, die riesige Mengen komplexer Daten schnell verarbeiten und analysieren können“.
In der Star Wars-Fachsprache ist Anthropic auf die „dunkle Seite“ übergetreten. Vielleicht war die Anziehungskraft zu stark oder das Geld zu verlockend. Dies erinnert an Googles Abkehr von seinem Motto „Don’t be evil“ im Jahr 2018. Dies folgt darauf, dass Sam Altman und OpenAI ihre gemeinnützigen Bestrebungen zugunsten eines uneingeschränkten Gewinnstrebens aufgegeben haben, um AGI zu erreichen, während Leitplanken und Sicherheitsbedenken über Bord geworfen wurden.
Das Fazit: Das Militär-/Geheimdienst-Establishment übernimmt die KI-Branche. Wenn jemand so naiv sein könnte zu glauben, dass dies gut für die Bürger der Welt ist, dann kann ich ihm eine Brücke verkaufen.
Patrick Wood, Herausgeber
Anthropic hat eine Partnerschaft mit Palantir und Amazon Web Services angekündigt, um seine Claude-KI-Modelle an nicht näher bezeichnete US-Geheimdienste und Verteidigungsbehörden zu bringen. Claude, eine Familie von KI-Sprachmodellen, die denen ähneln, die ChatGPT antreiben, wird innerhalb der Plattform von Palantir arbeiten und AWS-Hosting zur Verarbeitung und Analyse von Daten nutzen. Einige Kritiker haben jedoch darauf hingewiesen, dass der Deal im Widerspruch zu den weithin bekannten „KI-Sicherheits“-Zielen von Anthropic steht.
Timnit Gebru, ehemalige Co-Leiterin der KI-Ethikabteilung bei Google, schrieb auf Twitter über Anthropics neuen Deal mit Palantir: „Schau dir an, wie sehr sie sich um die ‚existenziellen Risiken für die Menschheit‘ sorgen.“
Durch die Partnerschaft steht Claude in der Impact Level 6-Umgebung (IL6) von Palantir zur Verfügung, einem vom Verteidigungsministerium zugelassenen System, das Daten verarbeitet, die für die nationale Sicherheit bis zur Geheimhaltungsstufe „geheim“ von entscheidender Bedeutung sind. Dieser Schritt folgt einem breiteren Trend von KI-Unternehmen, die sich um Verteidigungsaufträge bemühen, wobei Meta seine Llama-Modelle Verteidigungspartnern anbietet und OpenAI engere Beziehungen zum Verteidigungsministerium anstrebt.
In einer Pressemitteilung skizzierten die Unternehmen drei Hauptaufgaben für Claude in Verteidigungs- und Geheimdienstumgebungen: die Durchführung von Operationen mit großen Mengen komplexer Daten in hoher Geschwindigkeit, die Identifizierung von Mustern und Trends in diesen Daten und die Optimierung der Dokumentenprüfung und -vorbereitung.
Die Ankündigung der Partnerschaft deutet zwar auf ein großes Potenzial für die KI-gestützte Analyse von Informationen hin, besagt aber auch, dass menschliche Beamte bei diesen Vorgängen ihre Entscheidungsbefugnis behalten werden. Als Referenz für die Fähigkeiten der Technologie berichtete Palantir, dass ein (nicht genanntes) amerikanisches Versicherungsunternehmen 78 KI-Agenten, die auf ihrer Plattform und Claude basieren, einsetzte, um einen Zeichnungsprozess von zwei Wochen auf drei Stunden zu verkürzen.
Die neue Zusammenarbeit baut auf der früheren Integration von Claude in AWS GovCloud durch Anthropic auf, einem Dienst, der für Cloud-Computing in der Regierung entwickelt wurde. Anthropic, das vor kurzem seine Geschäftstätigkeit in Europa aufgenommen hat, hat sich um eine Finanzierung mit einem Unternehmenswert von bis zu 40 Milliarden US-Dollar bemüht. Das Unternehmen hat 7,6 Milliarden US-Dollar aufgebracht, wobei Amazon der Hauptinvestor ist.
Ein ethisches Minenfeld
Seit die Gründer Anthropic im Jahr 2021 gegründet haben, vermarktet sich das Unternehmen als ein Unternehmen, das bei der KI-Entwicklung einen ethik- und sicherheitsorientierten Ansatz verfolgt. Das Unternehmen hebt sich von Konkurrenten wie OpenAI dadurch ab, dass es so genannte verantwortungsvolle Entwicklungspraktiken und selbst auferlegte ethische Beschränkungen für seine Modelle anwendet, wie z. B. sein „Constitutional AI“-System.
Wie Futurism anmerkt, scheint diese neue Verteidigungspartnerschaft im Widerspruch zur öffentlichen „Gutmenschen“-Rolle von Anthropic zu stehen, und KI-Befürworter in den sozialen Medien bemerken dies. Der bekannte KI-Kommentator Nabeel S. Qureshi schrieb auf X: „Stellen Sie sich vor, Sie würden den sicherheitsbewussten, effektiven Altruisten und Gründern von Anthropic im Jahr 2021 sagen, dass sie nur drei Jahre nach der Gründung des Unternehmens Partnerschaften unterzeichnen würden, um ihr ~AGI-Modell direkt an der militärischen Front einzusetzen.“
Abgesehen von den Auswirkungen der Zusammenarbeit mit Verteidigungs- und Geheimdiensten verbindet der Deal Anthropic mit Palantir, einem umstrittenen Unternehmen, das kürzlich einen 480-Millionen-Dollar-Auftrag für die Entwicklung eines KI-gestützten Zielidentifikationssystems namens Maven Smart System für die US-Armee erhalten hat. Das Projekt Maven hat in der Technologiebranche Kritik an militärischen Anwendungen der KI-Technologie ausgelöst.
Es ist erwähnenswert, dass die Nutzungsbedingungen von Anthropic spezifische Regeln und Einschränkungen für die Nutzung durch die Regierung enthalten. Diese Bedingungen erlauben Aktivitäten wie die Analyse ausländischer Geheimdienste und die Identifizierung verdeckter Einflusskampagnen, verbieten jedoch die Nutzung für Zwecke wie Desinformation, Waffenentwicklung, Zensur und Überwachung im Inland. Regierungsbehörden, die regelmäßig mit Anthropic über die Nutzung von Claude kommunizieren, erhalten möglicherweise umfassendere Genehmigungen zur Nutzung der KI-Modelle.
Selbst wenn Claude niemals dazu verwendet wird, einen Menschen anzugreifen oder als Teil eines Waffensystems eingesetzt wird, bleiben andere Probleme bestehen. Obwohl die Claude-Modelle in der KI-Community hoch angesehen sind, neigen sie (wie alle LLMs) zur Konfabulation, wodurch möglicherweise falsche Informationen auf eine Weise generiert werden, die schwer zu erkennen ist.
Das ist ein großes potenzielles Problem, das sich auf die Effektivität von Claude bei geheimen Regierungsdaten auswirken könnte, und diese Tatsache, zusammen mit den anderen Assoziationen, bereitet Victor Tangermann von Futurism Sorgen. Er drückt es so aus: „Es ist eine beunruhigende Partnerschaft, die die wachsenden Verbindungen der KI-Branche mit dem militärisch-industriellen Komplex der USA herstellt, ein besorgniserregender Trend, der angesichts der vielen inhärenten Mängel der Technologie alle möglichen Alarmglocken läuten lassen sollte – und das umso mehr, wenn Leben auf dem Spiel stehen könnten.“
Meist kommentiert