logo

Shanghai Neardi Technology Co., Ltd. sales@neardi.com +86 17612192553

Shanghai Neardi Technology Co., Ltd. Unternehmensprofil
Nachrichten
Zu Hause > Nachrichten >
Firmennachrichten über KI-Berechnung ist mehr als nur der Haupt-SoC! Ein klarer Blick auf die tatsächliche Rolle des RK1820 im RK3588-System

KI-Berechnung ist mehr als nur der Haupt-SoC! Ein klarer Blick auf die tatsächliche Rolle des RK1820 im RK3588-System

2025-11-03
Latest company news about KI-Berechnung ist mehr als nur der Haupt-SoC! Ein klarer Blick auf die tatsächliche Rolle des RK1820 im RK3588-System

Warum sprechen immer mehr Edge-Geräte über NPUs und Coprozessoren? Der RK3588 ist bereits ein leistungsstarkes 6 TOPS (INT8) SoC, doch in komplexen Szenen wie Multi-Task-Inferenz, Modellparallelität und Video-KI-Analysen ist die Rechengrenze eines einzelnen Chips immer noch vorhanden. RK1820 wurde genau dafür geschaffen, diesen Teil der Last zu übernehmen und die „Rechenangst“ des Haupt-SoC zu lindern. In Edge-AI-Geräten kämpft der Host-Prozessor nicht mehr allein; wenn KI-Aufgaben die Planungsfähigkeit der traditionellen CPU/NPU übersteigen, tritt der Coprozessor leise ein und übernimmt einen Teil der intelligenten Arbeitslast.

Coprozessor RK1820

neueste Unternehmensnachrichten über KI-Berechnung ist mehr als nur der Haupt-SoC! Ein klarer Blick auf die tatsächliche Rolle des RK1820 im RK3588-System  0

RK1820 ist ein Coprozessor, der speziell für KI-Inferenz und Rechenerweiterung entwickelt wurde; er lässt sich flexibel mit Host-SoCs wie RK3588 und RK3576 kombinieren und kommuniziert effizient über PCIe- oder USB-Schnittstellen mit ihnen.

Fähigkeitskategorie Schlüsselparameter & Funktionen
Prozessorarchitektur 3× 64-Bit RISC-V-Kerne; 32 KB L1 I-Cache + 32 KB L1 D-Cache pro Kern, 128 KB gemeinsam genutzter L2-Cache; RISC-V H/F/D-Präzisions-FPU
Speicher 2,5 GB On-Chip-High-Bandwidth-DRAM + 512 KB SRAM; externe Unterstützung für eMMC 4.51 (HS200), SD 3.0, SPI Flash
Codec JPEG-Codierung: 16×16–65520×65520, YUV400/420/422/444; JPEG-Decodierung: 48×48–65520×65520, mehrere YUV/RGB-Formate
NPU 20 TOPS INT8; gemischte Präzision INT4/INT8/INT16/FP8/FP16/BF16; Frameworks: TensorFlow/MXNet/PyTorch/Caffe; Qwen2.5-3B (INT4) 67 Token/s, YOLOv8n (INT8) 125 FPS
Kommunikation PCIe 2.1 (2 Lanes, 2,5/5 Gbit/s), USB 3.0 (5 Gbit/s, gemeinsam mit PCIe)
Hauptfunktionen Edge-AI-Inferenz (Erkennung / Klassifizierung / LLM), RISC-V-Allzweckberechnung, 2D-Grafikbeschleunigung (Skalierung / Drehung), AES/SM4-Sicherheit
Aus der systemarchitektonischen Perspektive der Arbeitsteilung: Wer macht was?

Im RK3588 + RK1820-System wird die KI-Aufgaben-Pipeline in eine vierstufige Architektur zerlegt:
Anwendung → Middleware → Coprozessor-Ausführung → Steuerung & Präsentation.
RK3588-Host: Handhabt die Aufgabenplanung, Datenvorverarbeitung und Ergebnis-Ausgabe und steuert den gesamten Workflow.
RK1820-Coprozessor: Dediziert für High-Compute-KI-Inferenz, gekoppelt an den Host über PCIe, bildet ein „Light-Control + Heavy-Compute“-Zusammenarbeitsmodell.

Stufe Akteur Aktion
App-Anfrage RK3588 KI-Aufgabenaufruf von der App-Ebene (Erkennung/Detektion) ausgegeben
Dispatch RK3588-Dispatcher Entscheiden, ob an den Coprozessor ausgelagert werden soll
Inferenz RK1820 Deep-Learning-Modellberechnung ausführen
Rückgabe RK1820 → RK3588 Inferenz-Ergebnisse zurücksenden; Host zeigt an oder setzt die Logik fort
1. Anwendungsebene: Der „Initiator“ von KI-Aufgaben

Die Anwendungsebene ist der Ausgangspunkt jeder KI-Aufgabe; sie übersetzt Benutzeranforderungen – Bildanalysen, Objekterkennung, Edge-seitige LLM-Fragen und Antworten usw. – in systemausführbare Aufgabenbefehle und übergibt sie über standardisierte APIs an die Middleware-Ebene. Diese Ebene wird vollständig vom RK3588-Host gehandhabt, der die Benutzerinteraktion, die Geschäftslogik und die Peripheriedaten verwaltet.

neueste Unternehmensnachrichten über KI-Berechnung ist mehr als nur der Haupt-SoC! Ein klarer Blick auf die tatsächliche Rolle des RK1820 im RK3588-System  1

Aufgabenempfang: Erfasst Benutzerbefehle über Kameras, Touchpanels, Ethernet, UART usw.

  • Smarte Sicherheit: Personen in Videobildern erkennen
  • Industrielle Inspektion: Oberflächenfehler an Produkten identifizieren
  • Edge LLM: Spracheingabe in Text umwandeln und eine Frage-und-Antwort-Aufgabe bilden

Befehlsstandardisierung: Wandelt unstrukturierte Eingaben in strukturierte Aufgabenparameter um

  • Vision-Aufgabe: Eingangsauflösung, Modellversion, Ausgabevorgaben
  • LLM-Aufgabe: Eingabe-Token, Modellversion, maximale Ausgabelänge
2. Middleware-Ebene: Der „Dispatcher“ von KI-Aufgaben

Die Middleware-Ebene ist der kollaborative Hub: Sie beurteilt jede Aufgabe, weist Ressourcen zu, verarbeitet Daten vor und steuert den Busverkehr. Sie entscheidet, ob die Aufgabe auf dem Host ausgeführt oder an den Coprozessor ausgelagert wird.
Nur RK3588; RK1820 ist weder an der PCIe-Konfiguration noch am Interrupt-Management beteiligt – es führt lediglich die vom Host gesendeten Inferenzjobs aus.

Aufgabenklassifizierung und -planung

  • Lokale Verarbeitung: Aufgaben mit geringem Rechenaufwand oder Latenz (Bildskalierung, leichte KI-Inferenz) werden von RK3588 CPU/NPU/RGA verarbeitet.
  • Auslagerung an RK1820: Aufgaben mit hohem Rechenaufwand (YOLOv8-Mehrklassen-Erkennung, LLM-Inferenz, semantische Segmentierung) werden an RK1820 gesendet. Sobald RK1820 übernimmt, werden die Host-CPU/NPU für andere Arbeiten freigegeben.

Datenvorverarbeitung

  • Vision: Zuschneiden, Entrauschen, Normalisieren, Kanal neu anordnen.
  • Text: Tokenisieren, Auffüllen, Codieren.

neueste Unternehmensnachrichten über KI-Berechnung ist mehr als nur der Haupt-SoC! Ein klarer Blick auf die tatsächliche Rolle des RK1820 im RK3588-System  2

Buskommunikationskontrolle

  • Stellt eine Verbindung über PCIe oder USB3 her.
  • Datenübertragung verwendet DMA, keine CPU-Intervention.
  • Gibt Inferenz-Steuerbefehle aus: NPU starten, Präzision einstellen, Fertigstellungs-Interrupt auslösen.
3. Coprozessor-Ausführungsebene: Die „Rechenmaschine“ von KI-Aufgaben

Diese Ebene ist der Inferenzkern, der ausschließlich vom RK1820-Coprozessor angetrieben wird und sich der High-Compute-KI-Inferenz widmet.
RK1820 aktiv; RK3588 greift nicht in die Inferenz ein, sondern wartet nur auf Ergebnisse. Timeouts oder Ausnahmen werden von RK3588 über PCIe-Reset-Befehle behandelt.

Aufgabenempfang und -vorbereitung

Empfängt Daten, Modellgewichte und Befehle, die von RK3588 gesendet werden; schreibt sie in den lokalen High-Bandwidth-DRAM, lädt das Modell und konfiguriert die NPU.

NPU-Inferenzberechnung

  • Objekterkennung (YOLOv8n): conv → BN → aktivieren → Pool → Nachbearbeitung NMS.
  • LLM-Inferenz (Qwen2.5 3B): Eingabe-Token vorab ausfüllen → Token-für-Token-Generierung decodieren.
  • Inferenzoptimierung: Operator-Fusion, Gewichtskompression.

Ergebnisrückgabe

  • Gibt Begrenzungsrahmenkoordinaten, Klassen-IDs und Konfidenzwerte für die Erkennung zurück.
  • Gibt Token-Array für das LLM zurück.
4. Steuerungs- und Präsentationsebene: Der „Ausgeber“ von KI-Aufgaben

Diese Ebene ist der Endpunkt jeder KI-Aufgabe: Sie wandelt die Roh-Inferenz-Ergebnisse von RK1820 in visuelle oder geschäftsfertige Ausgaben um und schließt die Schleife.
RK3588 aktiv; RK1820 liefert nur die Roh-Inferenzdaten.

neueste Unternehmensnachrichten über KI-Berechnung ist mehr als nur der Haupt-SoC! Ein klarer Blick auf die tatsächliche Rolle des RK1820 im RK3588-System  3

Nachbearbeitung der Ergebnisse

  • Koordinaten auf die ursprüngliche Bildgröße zurückführen.
  • Token in natürliche Sprache decodieren.
  • Fehler bei der industriellen Inspektion zählen.

Systemsteuerung & Feedback-Ausgabe

  • Smarte Sicherheit: Video mit Erkennungsüberlagerungen anzeigen, Alarme auslösen.
  • Industrielle Inspektion: Befehlszeile zum Ablehnen fehlerhafter Produkte.
  • Edge LLM: Text + Sprachansage anzeigen.

Wert der Synergie: nicht nur schneller, sondern intelligenter

Stufe Akteur Aktion
App-Anfrage RK3588 KI-Aufgabenaufruf von der App-Ebene (Erkennung/Detektion) ausgegeben
Dispatch RK3588-Dispatcher Entscheiden, ob an den Coprozessor ausgelagert werden soll
Inferenz RK1820 Deep-Learning-Modellberechnung ausführen
Rückgabe RK1820 → RK3588 Inferenz-Ergebnisse zurücksenden; Host zeigt an oder setzt die Logik fort

Einfach ausgedrückt: RK3588 führt die Show aus und hält alles auf Kurs, während RK1820 rohe Rechenleistung liefert; zusammen machen sie Edge-AI-Geräte „intelligenter, schneller und problemlos“.
Folgen Sie uns für weitere RK1820-Nachrichten und SDK-Updates, neue Tutorials und sofort einsatzbereite Demos.

VERANSTALTUNGEN
Kontaktpersonen
Kontaktpersonen: Mr. Cola
Kontaktieren Sie uns jetzt
Mailen Sie uns.