Claude

  • Anthropic wurde im Jahr 2021 gegründet.
  • Die Gründer von Anthropic sind Dario Amodei und Daniela Amodei (beide Ex-OpenAI).
  • Der Hauptsitz von Anthropic ist in San Francisco, Kalifornien (USA).
  • Anthropic sieht sich als KI-Sicherheitsunternehmen mit Fokus auf „verantwortungsvolle KI“.
  • Die bekannteste KI von Anthropic heißt Claude (benannt nach Claude Shannon, dem Vater der Informationstheorie).
  • Claude ist ein großes Sprachmodell (LLM), ähnlich wie OpenAI’s GPT-4.
  • Claude wurde entwickelt, um besonders hilfreich, nützlich und „harmonisch“ zu antworten.
  • Claude-Modelle sind darauf trainiert, toxisches oder gefährliches Verhalten besonders gut zu vermeiden.
  • Es gibt verschiedene Claude-Versionen: Claude, Claude Instant, Claude 2 und Claude 3.
  • Claude 2 und 3 bieten fortgeschrittene Fähigkeiten im Textverständnis, Programmieren, logisches Denken und langes Kontextverständnis.
  • Claude kann sehr lange Eingaben verarbeiten, z. B. mehrere hunderttausend „Tokens“ in einer einzigen Sitzung (mehr Kontext als GPT-4).
  • Das Modell legt Wert auf Erklärbarkeit und fairen Umgang mit Nutzern (Alignment).
  • Unternehmen wie Slack, Notion und Quora integrieren Claude-Modelle in ihre Produkte.
  • Anthropic hat über 7 Milliarden US-Dollar von Investoren erhalten (Stand 2024).
  • Zu den Großinvestoren zählen Amazon (bis zu 4 Mrd. USD), Google und Salesforce.
  • Claude ist als Chatbot online verfügbar, in der Cloud (über API) und in einigen eigenen Anwendungen.
  • Claude punktet speziell bei Sicherheit, Datenschutz und geringerer Neigung zu „Halluzinationen“.
  • Der Zugang zu Claude ist über https://claude.ai möglich; auch eine API wird angeboten.
  • Laut unabhängigen Benchmarks erreicht Claude 3 in vielen Tests Werte ähnlich wie GPT-4 (oder sogar darüber).
  • Anthropic will mit Claude „Constitutional AI“ fördern, bei der moralische Prinzipien ins Training integriert werden.