China entwickelt sozialistische KI: Ein Blick hinter die Kulissen der Zensur
Chinas Regierung testet und zensiert große Sprachmodelle, um sicherzustellen, dass diese „sozialistische Kernwerte verkörpern“.
Überwachung und Kontrolle: Die Cyberspace Administration of China (CAC) zwingt große Technologieunternehmen wie ByteDance, Alibaba, Moonshot und 01.AI zur Teilnahme an obligatorischen Regierungsprüfungen ihrer KI-Modelle.
Umfangreiche Tests: Diese Prüfungen beinhalten das Testen von KI-Antworten auf zahlreiche Fragen, insbesondere zu politischen Sensibilitäten und Präsident Xi Jinping.
Datenfilterung: Zu den Sicherheitsprozessen gehören das Entfernen problematischer Informationen aus den Trainingsdaten und das Erstellen einer Datenbank mit sensiblen Schlüsselwörtern.
Strenge Regulierung: Nach Einführung der „Great Firewall“ setzt China nun das weltweit strengste Regulierungsregime für KI und deren Inhalte um.
Herausforderungen: AI-Unternehmen müssen schnell lernen, wie sie ihre Modelle zensieren können, was aufgrund der umfangreichen englischsprachigen Inhalte und der strengen Anforderungen schwierig ist.
Begrenzte Antworten: Chinesische Chatbots meiden sensible Themen und Antworten.
Xi Jinping Thought: Eine neue KI, basierend auf „Xi Jinping Thought on Socialism with Chinese Characteristics for a New Era“, wurde eingeführt, um sicherzustellen, dass die Antworten politisch korrekt sind.
Ergebnisse: Unternehmen wie ByteDance haben Modelle entwickelt, die Pekings Standpunkte erfolgreich wiedergeben, und werden von der Regierung hoch bewertet.
Zukünftige Entwicklungen: Experten wie Fang Binxing arbeiten an Systemen für Echtzeit-Sicherheitsüberwachung, um sicherzustellen, dass KIs kontinuierlich den staatlichen Anforderungen entsprechen.
Bedeutung: Diese Entwicklungen zeigen, wie politische Kontrolle und Technologie in einem autoritären Regime interagieren und wie dies die Entwicklung und Anwendung von KI beeinflusst.
CoSAI: Die Koalition für sichere KI startet
Einführung der Koalition für sichere KI (CoSAI): Die neue Industrieforum investiert in KI-Sicherheit und nutzt Googles Secure AI Framework.
Vorstellung beim Aspen Security Forum: Google stellt, zusammen mit Branchenkollegen, CoSAI vor, um umfassende Sicherheitsmaßnahmen für KI-Risiken zu fördern.
Gründungsmitglieder:
- Amazon
- Anthropic
- Chainguard
- Cisco
- Cohere
- GenLab
- IBM
- Intel
- Microsoft
- NVIDIA
- OpenAI
- Paypal
- Wiz
Unterstützung durch OASIS Open: CoSAI wird unter dem internationalen Standard- und Open-Source-Konsortium OASIS Open angesiedelt.
Erste Arbeitsbereiche von CoSAI:
- Sicherheit der Software-Lieferkette für KI-Systeme: Erweiterung der SLSA Provenance für KI-Modelle, um die Sicherheit von KI-Software durch Nachverfolgung der Entstehung und Handhabung zu gewährleisten.
- Vorbereitung der Verteidiger auf ein sich veränderndes Cybersicherheitsumfeld: Entwicklung eines Frameworks, um Sicherheitsexperten bei der Identifizierung von Investitionen und Techniken zur Minderung von Sicherheitsauswirkungen durch KI zu unterstützen.
- KI-Sicherheitsgovernance: Entwicklung einer Taxonomie von Risiken und Kontrollen, einer Checkliste und einer Scorecard zur Führung von Praktikern bei der Bewertung, Verwaltung, Überwachung und Berichterstattung über die Sicherheit ihrer KI-Produkte.
Zusammenarbeit: CoSAI wird mit Organisationen wie Frontier Model Forum, Partnership on AI, Open Source Security Foundation und ML Commons zusammenarbeiten, um verantwortungsbewusste KI voranzutreiben.
Zukunftsausblick: CoSAI wird weiterhin effektive Risikomanagementstrategien entwickeln, um die sichere Implementierung, Schulung und Nutzung von KI zu gewährleisten. Weitere Updates werden in den kommenden Monaten erwartet.
Bedeutung: Diese Initiative ist besonders relevant für KI-Interessierte, da sie zeigt, wie wichtige Akteure der Branche zusammenarbeiten, um die Sicherheit und Verantwortung im Umgang mit Künstlicher Intelligenz zu fördern.
Agent-Workflows: Der Schlüssel zum KI-Fortschritt
Die Bedeutung von Agent-Workflows: Agent-Workflows könnten in diesem Jahr den größten Fortschritt im Bereich der Künstlichen Intelligenz (KI) bringen. Diese Workflows ermöglichen es großen Sprachmodellen (LLMs), iterativ an Aufgaben zu arbeiten, anstatt nur einmalig eine Antwort zu generieren. Während LLMs wie GPT-3.5 und GPT-4 im Zero-Shot-Modus beachtliche Leistungen erbringen, verbessert sich die Leistung erheblich, wenn sie in einem Agent-Workflow eingesetzt werden, der mehrere Überarbeitungen ermöglicht.
Iterativer Schreibprozess: Mit einem Agent-Workflow kann das LLM iterativ an einem Dokument arbeiten, ähnlich wie ein menschlicher Autor. Ein Beispiel für diesen Prozess könnte folgende Schritte umfassen:
- Planen einer Gliederung: Das Modell erstellt eine grobe Struktur für den Text.
- Durchführen von Webrecherchen: Das Modell entscheidet, ob zusätzliche Informationen benötigt werden und führt entsprechende Suchen durch.
- Erstellen eines ersten Entwurfs: Basierend auf der gesammelten Information wird ein erster Entwurf geschrieben.
- Überarbeiten des Entwurfs: Das Modell liest den Entwurf, identifiziert Schwächen wie unzureichende Argumente oder überflüssige Informationen und überarbeitet den Text entsprechend.
- Wiederholen des Prozesses: Diese Schritte werden wiederholt, bis der Text ausgereift ist.
Verbesserte Ergebnisse: Die iterative Methode zeigt deutliche Verbesserungen in der Leistung der LLMs:
- GPT-3.5 erreicht im Zero-Shot-Modus 48,1% Korrektheit bei der Lösung von Aufgaben.
- GPT-4 verbessert diese Rate auf 67,0%.
- Mit einem Agent-Workflow, der mehrere Überarbeitungen ermöglicht, erreicht GPT-3.5 beeindruckende 95,1% Korrektheit.
Designmuster für Agenten:
- Reflexion: Das LLM analysiert seine eigene Arbeit, um Verbesserungsmöglichkeiten zu finden. Dieser Prozess ähnelt der Selbstüberprüfung bei menschlichen Autoren.
- Werkzeugnutzung: Das LLM verwendet externe Tools wie Websuche oder Codeausführung, um Informationen zu sammeln oder Aktionen durchzuführen.
- Planung: Das LLM erstellt und führt einen mehrstufigen Plan aus, um ein bestimmtes Ziel zu erreichen. Beispielsweise könnte es eine Gliederung für einen Aufsatz erstellen, dann Online-Recherchen durchführen und schließlich einen Entwurf schreiben.
- Multi-Agenten-Kollaboration: Mehrere KI-Agenten arbeiten zusammen, teilen Aufgaben auf und diskutieren Ideen, um zu besseren Lösungen zu kommen, als es ein einzelner Agent könnte.
Bedeutung: Diese Entwicklungen sind besonders relevant, da sie zeigen, wie iterative und kollaborative Prozesse die Qualität und Effizienz von KI-Anwendungen erheblich verbessern können. KI Interessierte sollten diese Trends genau verfolgen, da sie das Potenzial haben, die Art und Weise, wie wir KI (auch im Business) nutzen, grundlegend zu verändern.
Haben große Sprachmodelle (LLMs) ein Bewusstsein? - Eine Studie
Hintergrund:
- Technologische Fortschritte bei großen Sprachmodellen (LLMs) wie ChatGPT haben Debatten darüber ausgelöst, ob KI ein Bewusstsein oder subjektive Erfahrungen haben kann.
- Studien haben gezeigt, dass eine Mehrheit der US-Bevölkerung (67% der Befragten) bereit ist, LLMs eine gewisse Form von Bewusstsein zuzuschreiben.
Untersuchungsansatz:
- Eine Umfrage unter 300 US-Bürgern untersuchte, wie diese die Fähigkeit von ChatGPT, bewusste Erfahrungen zu haben, bewerten.
- Die Teilnehmer bewerteten auf einer Skala von 1 bis 100, ob ChatGPT ihrer Meinung nach subjektive Erfahrungen hat.
Ergebnisse:
- Bewertung des Bewusstseins: 33% der Befragten gaben an, dass ChatGPT definitiv kein Bewusstsein hat, während 67% angaben, dass es zumindest eine gewisse Form von Bewusstsein haben könnte.
- Vertrautheit: Personen, die ChatGPT häufiger nutzen, neigen eher dazu, ihm Bewusstsein zuzuschreiben. Diese Tendenz nimmt mit der Nutzungsfrequenz zu.
- Mentalzustände: Die Teilnehmer unterschieden zwischen mentalen Zuständen, die mit „Erfahrung“ (z.B. Freude empfinden) und „Intelligenz“ (z.B. Entscheidungen treffen) verbunden sind. ChatGPT wurde eher Intelligenz zugeschrieben, aber die Zuschreibung von Bewusstsein hing stärker mit der Zuschreibung von Erlebnissen zusammen.
Forschungseinblicke:
- Folk Intuitions: Die Untersuchung zeigt, dass Laien intuitiv mentalen Zuständen von KI-Tools ähnliche Qualitäten wie menschlichen Erfahrungen zuschreiben.
- Fachmeinungen: Experten sind eher der Ansicht, dass LLMs kein Bewusstsein haben, was eine Diskrepanz zwischen Laienmeinungen und Expertenansichten aufzeigt.
Implikationen:
- Ethik und Recht: Die Wahrnehmung von Bewusstsein bei KI durch die Allgemeinheit kann erhebliche Auswirkungen auf die ethische und rechtliche Behandlung von KI-Systemen haben.
- Zukünftige Forschung: Weitere Studien könnten untersuchen, wie verschiedene Interaktionen mit KI die Wahrnehmung von Bewusstsein beeinflussen und ob diese Wahrnehmungen kulturell unterschiedlich sind.
Bedeutung: Die Studie zeigt, dass eine signifikante Mehrheit der Befragten bereit ist, ChatGPT und ähnlichen LLMs eine Form von Bewusstsein zuzuschreiben, was im Widerspruch zu den Ansichten vieler Experten steht. Diese Unterschiede haben wichtige Konsequenzen für die Diskussionen über die moralische und rechtliche Stellung von KI.
OpenAI stellt GPT-4o mini vor: Ein kleineres, günstigeres KI-Modell
Neueste Veröffentlichung: OpenAI hat am Donnerstag GPT-4o mini vorgestellt, ein kleineres und kostengünstigeres KI-Modell. Es ist ab heute für Entwickler sowie über die ChatGPT-Web- und Mobile-App für Verbraucher verfügbar. Enterprise-Nutzer erhalten nächste Woche Zugang.
Leistungsstark und Effizient:
- GPT-4o mini übertrifft andere führende kleine KI-Modelle bei Aufgaben, die Text- und Bildverarbeitung erfordern.
- Das Modell ersetzt GPT-3.5 Turbo als kleinstes Modell von OpenAI.
- Benchmark-Ergebnisse:
- MMLU: 82% (gegenüber 79% für Gemini 1.5 Flash und 75% für Claude 3 Haiku).
- MGSM: 87% (gegenüber 78% für Flash und 72% für Haiku).
Kosteneffizienz:
- GPT-4o mini ist über 60% günstiger im Betrieb als GPT-3.5 Turbo.
- Preise für Entwickler: 15 Cent pro Million Eingabetokens und 60 Cent pro Million Ausgabetokens.
- Das Modell hat ein Kontextfenster von 128.000 Tokens und einen Wissensstand bis Oktober 2023.
Technische Details:
- GPT-4o mini unterstützt derzeit Text- und Bildverarbeitung in der API. Video- und Audiounterstützung sind in Planung.
- Die Größe des Modells wird nicht genau offengelegt, es befindet sich jedoch in derselben Kategorie wie andere kleine Modelle wie Llama 3 8b, Claude Haiku und Gemini 1.5 Flash.
- Laut Tests von LMSYS.org und Artificial Analysis ist GPT-4o mini schneller und kosteneffizienter als vergleichbare Modelle.
Entwicklerfreundlich:
- GPT-4o mini hat eine mittlere Ausgabegeschwindigkeit von 202 Tokens pro Sekunde, was mehr als doppelt so schnell ist wie GPT-4o und GPT-3.5 Turbo.
Neue Tools für Unternehmen:
- OpenAI hat zudem neue Tools für ChatGPT Enterprise-Kunden vorgestellt, einschließlich einer Enterprise Compliance API zur Unterstützung in stark regulierten Branchen wie Finanzen, Gesundheitswesen, Rechtsdienstleistungen und Regierung.
- Die API ermöglicht Administratoren die Überprüfung und Verwaltung von ChatGPT Enterprise-Daten, einschließlich zeitgestempelter Interaktionen und hochgeladener Dateien.
Bedeutung: Diese Einführung zeigt, wie OpenAI die Zugänglichkeit und Effizienz von KI-Modellen weiter verbessert, um eine breitere Nutzung und Anpassung an verschiedene Anwendungsfälle zu ermöglichen.
Die "Godmother of AI" gründet Milliardenschweres Startup: World Labs
Gründung von World Labs:
- Fei-Fei Li, bekannt als die "Godmother of AI", hat ein neues Startup namens World Labs ins Leben gerufen.
- In nur vier Monaten wurde World Labs mit über 1 Milliarde US-Dollar bewertet.
Fokus und Ziele von World Labs:
- Ziel ist es, durch menschenähnliche Verarbeitung visueller Daten KI in die Lage zu versetzen, fortgeschrittenes Reasoning zu erreichen.
- Das Unternehmen entwickelt Modelle, die die dreidimensionale physische Welt verstehen, einschließlich der Dimensionen von Objekten, deren Position und Funktion.
Hintergrund und Expertise:
- Fei-Fei Li ist eine angesehene Computerwissenschaftlerin und Pionierin auf dem Gebiet der Computer Vision.
- Sie entwickelte ImageNet, eine umfangreiche visuelle Datenbank für die Forschung zur visuellen Objekterkennung.
- Li leitete von 2017 bis 2018 die KI-Abteilung bei Google Cloud und berät derzeit die Arbeitsgruppe für KI im Weißen Haus.
Anwendungen und Auswirkungen:
- Die Technologie von World Labs könnte in verschiedenen Bereichen wie Robotik, Augmented Reality (AR), Virtual Reality (VR) und Computer Vision eingesetzt werden.
- Durch die Weiterentwicklung von "spatial intelligence" könnten Algorithmen realistisch Bilder und Texte in dreidimensionale Umgebungen extrapolieren und auf diese Vorhersagen reagieren.
Finanzierung und Unterstützung:
- World Labs hat bereits zwei Finanzierungsrunden abgeschlossen, die neueste betrug etwa 100 Millionen US-Dollar.
- Unterstützt wird das Startup von Andreessen Horowitz und Radical Ventures, einem AI-Fonds, dem Li letztes Jahr als Partnerin beigetreten ist.
Verbindung zu Stanford:
- Li gründete World Labs während einer teilweisen Beurlaubung von Stanford, wo sie das Human-Centered AI Institute mit leitet.
Fei-Fei Lis Vision:
- In einem TED Talk im April erläuterte Li das Forschungsfeld ihres Startups, das Algorithmen entwickeln soll, die in der Lage sind, realistische dreidimensionale Umgebungen zu erschaffen und darauf zu reagieren.
- Diese Technologie könnte Industrien wie Gesundheitswesen und Fertigung revolutionieren.
Trends und Marktentwicklungen:
- Die Investition in World Labs spiegelt einen Trend wider, bei dem Risikokapitalgeber sich eifrig mit ehrgeizigen KI-Unternehmen zusammentun, inspiriert vom überraschenden Erfolg von OpenAIs ChatGPT, das schnell eine Bewertung von über 80 Milliarden US-Dollar erreichte.
Bedeutung: World Labs unter der Führung von Fei-Fei Li könnte eine entscheidende Rolle in der Weiterentwicklung von KI-Technologien spielen und bedeutende Fortschritte in zahlreichen Industrien ermöglichen.
Google stellt Project Oscar vor: Open-Source-KI-Agenten für Entwickler
Was ist Project Oscar ?
- Eine Open-Source-Plattform von Google, die Entwicklungsteams befähigt, KI-Agenten zu erstellen, die Probleme überwachen, Bugs verwalten und verschiedene Aspekte des Software-Lebenszyklus handhaben – alles über natürliche Sprachinteraktionen.
Wie funktioniert es?
- Natürliche Sprachinteraktionen: Entwickler können Befehle in natürlicher Sprache geben, ohne Code schreiben zu müssen. Dies ermöglicht es, sich mehr auf kreative Problemlösungen zu konzentrieren, statt auf repetitive Programmieraufgaben.
- Bewährte Anwendung: Googles Go-Team hat Oscar genutzt, um über 93.000 Commits und 2.000 Mitwirkende zu verwalten, Bugs zu verfolgen und Prozesse zu optimieren. Dies hat den Zeit- und Arbeitsaufwand zur Lösung von Problemen erheblich reduziert.
Funktionen und Vorteile:
- Automatisierte Bug-Verwaltung: Oscar bereichert Fehlerberichte, überprüft Daten und interagiert mit Nutzern, um Probleme zu klären, auch wenn menschliche Wartungsmitarbeiter offline sind.
- Verbesserte Effizienz: Google hebt hervor, wie Oscar den gesamten Softwareentwicklungsprozess transformieren kann, indem es die Berichte bereichert, Daten überprüft und mit Nutzern interagiert.
Zukunftsaussichten:
- Google plant, Oscar auch für geschlossene Projekte verfügbar zu machen, mit der Vision, dass jeder Oscar einsetzen kann, entweder mit vorgefertigten Agenten oder eigenen Anpassungen.
- Erweiterung auf andere Projekte: Nach dem Erfolg mit dem Go-Team wird Oscar bald auch in anderen Open-Source-Projekten von Google eingesetzt.
Einfluss auf die Softwareentwicklung:
- Bewegung zur Erleichterung der Entwicklerarbeit: Oscar ist Teil einer wachsenden Bewegung, die darauf abzielt, das Leben der Entwickler zu erleichtern, ähnlich wie GitHub's Copilot und Amazon's CodeWhisperer.
- Erhöhte Produktivität: AI-Agenten wie Oscar können die Produktivität der Entwickler erheblich steigern, indem sie störende Aufgaben und Mühsal reduzieren.
Aussagen von Google:
- Karthik Padmanabhan, Leiter Developer Relations bei Google Indien: "Ich glaube fest daran, dass KI das Potenzial hat, den gesamten Softwareentwicklungszyklus auf viele positive Weisen zu transformieren."
- Cameron Balahan, Gruppenproduktmanager für Googles Programmiersprache Go: "Unsere Vision ist, dass jeder Oscar in seinem Projekt einsetzen kann, ob Open- oder Closed-Source, und die vorgefertigten Agenten verwenden oder eigene mitbringen kann."
Bedeutung: Project Oscar stellt einen bedeutenden Fortschritt in der Softwareentwicklung dar, indem es Entwicklern ermöglicht, KI-Agenten zu nutzen, die den gesamten Entwicklungsprozess vereinfachen und effizienter gestalten. Mit der Erweiterung auf geschlossene Projekte und der Integration in verschiedene Open-Source-Projekte zeigt Google sein Engagement, die Softwareentwicklung durch innovative KI-Technologien zu transformieren.