Shanghai Neardi Technology Co., Ltd. sales@neardi.com +86 17612192553
Pourquoi de plus en plus d'appareils périphériques parlent de NPU et de coprocesseurs ? Le RK3588 est déjà un SoC puissant de 6 TOPS (INT8), mais dans des scènes complexes telles que l'inférence multi-tâches, le parallélisme des modèles et l'analyse vidéo-IA, le plafond de calcul d'une seule puce est toujours présent. Le RK1820 a été créé exactement pour prendre en charge cette part de charge et soulager l'« anxiété de calcul » du SoC principal. Dans les équipements d'IA en périphérie, le processeur hôte ne se bat plus seul ; lorsque les tâches d'IA dépassent la capacité de planification du CPU/NPU traditionnel, le coprocesseur intervient discrètement et assume une partie de la charge de travail intelligente.
![]()
Le RK1820 est un coprocesseur spécialement conçu pour l'inférence et l'extension de calcul de l'IA ; il s'associe de manière flexible aux SoC hôtes tels que le RK3588 et le RK3576 et communique avec eux efficacement via des interfaces PCIe ou USB.
| Catégorie de capacité | Principaux paramètres et fonctions |
|---|---|
| Architecture du processeur | 3 × cœurs RISC-V 64 bits ; 32 Ko de cache I-L1 + 32 Ko de cache D-L1 par cœur, 128 Ko de cache L2 partagé ; FPU RISC-V de précision H/F/D |
| Mémoire | 2,5 Go de DRAM à haute bande passante sur puce + 512 Ko de SRAM ; prise en charge externe de l'eMMC 4.51 (HS200), SD 3.0, SPI Flash |
| Codec | Encodage JPEG : 16 × 16–65520 × 65520, YUV400/420/422/444 ; décodage JPEG : 48 × 48–65520 × 65520, plusieurs formats YUV/RVB |
| NPU | 20 TOPS INT8 ; précision mixte INT4/INT8/INT16/FP8/FP16/BF16 ; frameworks : TensorFlow/MXNet/PyTorch/Caffe ; Qwen2.5-3B (INT4) 67 tokens/s, YOLOv8n (INT8) 125 FPS |
| Communication | PCIe 2.1 (2 voies, 2,5/5 Gbit/s), USB 3.0 (5 Gbit/s, partagé avec PCIe) |
| Fonctions principales | Inférence IA en périphérie (détection / classification / LLM), calcul général RISC-V, accélération graphique 2D (échelle / rotation), sécurité AES/SM4 |
Dans le système RK3588 + RK1820, le pipeline des tâches d'IA est décomposé en une architecture à quatre niveaux :
Application → Middleware → Exécution du coprocesseur → Contrôle et présentation.
Hôte RK3588 : gère la planification des tâches, le prétraitement des données et la sortie des résultats, régissant l'ensemble du flux de travail.
Coprocesseur RK1820 : dédié à l'inférence IA à calcul intensif, couplé à l'hôte via PCIe, formant un modèle de collaboration « contrôle léger + calcul lourd ».
| Étape | Acteur | Action |
|---|---|---|
| Requête de l'application | RK3588 | Appel de tâche d'IA émis depuis la couche application (reconnaissance/détection) |
| Dispatch | Dispatcher RK3588 | Décider s'il faut décharger vers le coprocesseur |
| Inférence | RK1820 | Exécuter le calcul du modèle d'apprentissage profond |
| Retour | RK1820 → RK3588 | Renvoyer les résultats d'inférence ; l'hôte affiche ou continue la logique |
La couche d'application est l'endroit où chaque tâche d'IA commence ; elle traduit les exigences de l'utilisateur — analyse d'images, détection d'objets, questions-réponses LLM côté périphérie, etc. — en commandes de tâches exécutables par le système et les transmet à la couche middleware via des API standardisées. Cette couche est entièrement gérée par l'hôte RK3588, qui gère l'interaction avec l'utilisateur, la logique métier et les données périphériques.
![]()
Réception des tâches : acquiert les commandes de l'utilisateur via des caméras, des écrans tactiles, Ethernet, UART, etc.
Standardisation des commandes : transforme les entrées non structurées en paramètres de tâches structurés
La couche middleware est le hub collaboratif : elle juge chaque tâche, alloue des ressources, pré-traite les données et gère le trafic du bus. Elle décide si la tâche s'exécute sur l'hôte ou est déchargée vers le coprocesseur.
RK3588 uniquement ; RK1820 ne participe pas à la configuration PCIe ni à la gestion des interruptions — il exécute simplement les tâches d'inférence dispatchées par l'hôte.
Classification et planification des tâches
Prétraitement des données
![]()
Contrôle de la communication du bus
Cette couche est le cœur d'inférence, piloté exclusivement par le coprocesseur RK1820, dédié à l'inférence IA à calcul intensif.
RK1820 actif ; RK3588 n'interfère pas avec l'inférence, il attend seulement les résultats. Les délais d'attente ou les exceptions sont gérés par le RK3588 via les commandes de réinitialisation PCIe.
Réception et préparation des tâches
Reçoit les données, les poids du modèle et les commandes dispatchées par le RK3588 ; les écrit dans la DRAM locale à haute bande passante, charge le modèle et configure le NPU.
Calcul d'inférence NPU
Retour des résultats
Cette couche est le terminus de chaque tâche d'IA : elle convertit les résultats d'inférence bruts du RK1820 en une sortie visuelle ou prête pour l'entreprise et ferme la boucle.
RK3588 actif ; RK1820 fournit uniquement les données d'inférence brutes.
![]()
Post-traitement des résultats
Contrôle du système et sortie de rétroaction
Valeur de la synergie : non seulement plus rapide, mais plus intelligent
| Étape | Acteur | Action |
|---|---|---|
| Requête de l'application | RK3588 | Appel de tâche d'IA émis depuis la couche application (reconnaissance/détection) |
| Dispatch | Dispatcher RK3588 | Décider s'il faut décharger vers le coprocesseur |
| Inférence | RK1820 | Exécuter le calcul du modèle d'apprentissage profond |
| Retour | RK1820 → RK3588 | Renvoyer les résultats d'inférence ; l'hôte affiche ou continue la logique |
En termes simples : le RK3588 gère le spectacle et maintient tout sur la bonne voie, tandis que le RK1820 fournit des rafales de calcul brutes ; ensemble, ils rendent les appareils d'IA en périphérie « plus intelligents, plus rapides et sans tracas ».
Suivez-nous pour plus d'actualités sur le RK1820 et les mises à jour du SDK, de nouveaux tutoriels et des démos prêtes à l'emploi.