Shanghai Neardi Technology Co., Ltd. sales@neardi.com +86 17612192553
Warum sprechen immer mehr Edge-Geräte über NPUs und Coprozessoren? Der RK3588 ist bereits ein leistungsstarkes 6 TOPS (INT8) SoC, doch in komplexen Szenen wie Multi-Task-Inferenz, Modellparallelität und Video-KI-Analysen ist die Rechengrenze eines einzelnen Chips immer noch vorhanden. RK1820 wurde genau dafür geschaffen, diesen Teil der Last zu übernehmen und die „Rechenangst“ des Haupt-SoC zu lindern. In Edge-AI-Geräten kämpft der Host-Prozessor nicht mehr allein; wenn KI-Aufgaben die Planungsfähigkeit der traditionellen CPU/NPU übersteigen, tritt der Coprozessor leise ein und übernimmt einen Teil der intelligenten Arbeitslast.
![]()
RK1820 ist ein Coprozessor, der speziell für KI-Inferenz und Rechenerweiterung entwickelt wurde; er lässt sich flexibel mit Host-SoCs wie RK3588 und RK3576 kombinieren und kommuniziert effizient über PCIe- oder USB-Schnittstellen mit ihnen.
| Fähigkeitskategorie | Schlüsselparameter & Funktionen |
|---|---|
| Prozessorarchitektur | 3× 64-Bit RISC-V-Kerne; 32 KB L1 I-Cache + 32 KB L1 D-Cache pro Kern, 128 KB gemeinsam genutzter L2-Cache; RISC-V H/F/D-Präzisions-FPU |
| Speicher | 2,5 GB On-Chip-High-Bandwidth-DRAM + 512 KB SRAM; externe Unterstützung für eMMC 4.51 (HS200), SD 3.0, SPI Flash |
| Codec | JPEG-Codierung: 16×16–65520×65520, YUV400/420/422/444; JPEG-Decodierung: 48×48–65520×65520, mehrere YUV/RGB-Formate |
| NPU | 20 TOPS INT8; gemischte Präzision INT4/INT8/INT16/FP8/FP16/BF16; Frameworks: TensorFlow/MXNet/PyTorch/Caffe; Qwen2.5-3B (INT4) 67 Token/s, YOLOv8n (INT8) 125 FPS |
| Kommunikation | PCIe 2.1 (2 Lanes, 2,5/5 Gbit/s), USB 3.0 (5 Gbit/s, gemeinsam mit PCIe) |
| Hauptfunktionen | Edge-AI-Inferenz (Erkennung / Klassifizierung / LLM), RISC-V-Allzweckberechnung, 2D-Grafikbeschleunigung (Skalierung / Drehung), AES/SM4-Sicherheit |
Im RK3588 + RK1820-System wird die KI-Aufgaben-Pipeline in eine vierstufige Architektur zerlegt:
Anwendung → Middleware → Coprozessor-Ausführung → Steuerung & Präsentation.
RK3588-Host: Handhabt die Aufgabenplanung, Datenvorverarbeitung und Ergebnis-Ausgabe und steuert den gesamten Workflow.
RK1820-Coprozessor: Dediziert für High-Compute-KI-Inferenz, gekoppelt an den Host über PCIe, bildet ein „Light-Control + Heavy-Compute“-Zusammenarbeitsmodell.
| Stufe | Akteur | Aktion |
|---|---|---|
| App-Anfrage | RK3588 | KI-Aufgabenaufruf von der App-Ebene (Erkennung/Detektion) ausgegeben |
| Dispatch | RK3588-Dispatcher | Entscheiden, ob an den Coprozessor ausgelagert werden soll |
| Inferenz | RK1820 | Deep-Learning-Modellberechnung ausführen |
| Rückgabe | RK1820 → RK3588 | Inferenz-Ergebnisse zurücksenden; Host zeigt an oder setzt die Logik fort |
Die Anwendungsebene ist der Ausgangspunkt jeder KI-Aufgabe; sie übersetzt Benutzeranforderungen – Bildanalysen, Objekterkennung, Edge-seitige LLM-Fragen und Antworten usw. – in systemausführbare Aufgabenbefehle und übergibt sie über standardisierte APIs an die Middleware-Ebene. Diese Ebene wird vollständig vom RK3588-Host gehandhabt, der die Benutzerinteraktion, die Geschäftslogik und die Peripheriedaten verwaltet.
![]()
Aufgabenempfang: Erfasst Benutzerbefehle über Kameras, Touchpanels, Ethernet, UART usw.
Befehlsstandardisierung: Wandelt unstrukturierte Eingaben in strukturierte Aufgabenparameter um
Die Middleware-Ebene ist der kollaborative Hub: Sie beurteilt jede Aufgabe, weist Ressourcen zu, verarbeitet Daten vor und steuert den Busverkehr. Sie entscheidet, ob die Aufgabe auf dem Host ausgeführt oder an den Coprozessor ausgelagert wird.
Nur RK3588; RK1820 ist weder an der PCIe-Konfiguration noch am Interrupt-Management beteiligt – es führt lediglich die vom Host gesendeten Inferenzjobs aus.
Aufgabenklassifizierung und -planung
Datenvorverarbeitung
![]()
Buskommunikationskontrolle
Diese Ebene ist der Inferenzkern, der ausschließlich vom RK1820-Coprozessor angetrieben wird und sich der High-Compute-KI-Inferenz widmet.
RK1820 aktiv; RK3588 greift nicht in die Inferenz ein, sondern wartet nur auf Ergebnisse. Timeouts oder Ausnahmen werden von RK3588 über PCIe-Reset-Befehle behandelt.
Aufgabenempfang und -vorbereitung
Empfängt Daten, Modellgewichte und Befehle, die von RK3588 gesendet werden; schreibt sie in den lokalen High-Bandwidth-DRAM, lädt das Modell und konfiguriert die NPU.
NPU-Inferenzberechnung
Ergebnisrückgabe
Diese Ebene ist der Endpunkt jeder KI-Aufgabe: Sie wandelt die Roh-Inferenz-Ergebnisse von RK1820 in visuelle oder geschäftsfertige Ausgaben um und schließt die Schleife.
RK3588 aktiv; RK1820 liefert nur die Roh-Inferenzdaten.
![]()
Nachbearbeitung der Ergebnisse
Systemsteuerung & Feedback-Ausgabe
Wert der Synergie: nicht nur schneller, sondern intelligenter
| Stufe | Akteur | Aktion |
|---|---|---|
| App-Anfrage | RK3588 | KI-Aufgabenaufruf von der App-Ebene (Erkennung/Detektion) ausgegeben |
| Dispatch | RK3588-Dispatcher | Entscheiden, ob an den Coprozessor ausgelagert werden soll |
| Inferenz | RK1820 | Deep-Learning-Modellberechnung ausführen |
| Rückgabe | RK1820 → RK3588 | Inferenz-Ergebnisse zurücksenden; Host zeigt an oder setzt die Logik fort |
Einfach ausgedrückt: RK3588 führt die Show aus und hält alles auf Kurs, während RK1820 rohe Rechenleistung liefert; zusammen machen sie Edge-AI-Geräte „intelligenter, schneller und problemlos“.
Folgen Sie uns für weitere RK1820-Nachrichten und SDK-Updates, neue Tutorials und sofort einsatzbereite Demos.