Machine Learning Benchmark Tool (ML Bench) (AI Benchmark Tool)
Supported models :
- MobileNet v1
- MobileNet v2
- Inception v3
- Resnet v2 50
- SSD Mobilenet v1 (Object Detection)
Supported runtime :
- Tensorflow Lite
- Tensorflow Mobile
- Android NN
- SNPE (for Qualcomm)
SideLoad Support:
How to side load your model :
1. Convert your model to tflite (using toco) or dlc (using snpe conversion tool).
2. On your local machine, create [Model Name] directory
3. Copy your model file to the directory created in step 2
4. Create a file called meta-data.json in the [Model Name] directory
example of meta-data.json :
{
"xres" : 299,
"yres" : 299,
"depth" : 3,
"input_type" : "float",
"output_type" : "float",
"input_name" : "input:0",
"output_name" : "InceptionV3/Predictions/Reshape_1:0",
"image_mean" : 0,
"image_std" : 0,
"accelerator":"dsp",
}
5. push [Model Name] directory to the target device using below command
adb push ./[Model Name] /sdcard/Android/data/com.etinum.mlbench/files/models/
أداة مرجعية التعلم الآلي (ML Bench) (AI Benchmark Tool)
النماذج المدعومة:
- MobileNet v1
- MobileNet v2
- بداية v3
- Resnet v2 50
- SSD Mobilenet v1 (اكتشاف الكائن)
وقت التشغيل المدعوم:
- Tensorflow لايت
- Tensorflow موبايل
- Android NN
- SNPE (لـ Qualcomm)
دعم SideLoad:
كيفية تحميل النموذج الخاص بك:
1. قم بتحويل نموذجك إلى tflite (باستخدام toco) أو dlc (باستخدام أداة تحويل snpe).
2. على جهازك المحلي ، قم بإنشاء دليل [Model Name]
3. انسخ ملف النموذج الخاص بك إلى الدليل الذي تم إنشاؤه في الخطوة 2
4. قم بإنشاء ملف يسمى meta-data.json في الدليل [اسم الموديل]
مثال على meta-data.json:
{
"xres": 299 ،
"ياردة": 299 ،
"العمق": 3 ،
"input_type": "float" ،
"output_type": "float" ،
"input_name": "input: 0"،
"output_name": "InceptionV3 / Predictions / Reshape_1: 0" ،
"image_mean": 0 ،
"image_std": 0 ،
"مسرع": "حزب اليسار الديمقراطى"،
}
5. ادفع دليل [Model Name] إلى الجهاز المستهدف باستخدام الأمر أدناه
adb push ./[Model Name] /sdcard/Android/data/com.etinum.mlbench/files/models/