Pengolah

Nnp, dlboost dan keem bay, chip intel baru untuk besarbesaran dan jaringan saraf

Daftar Isi:

Anonim

Intel mengumumkan perangkat keras khusus baru pada acara KTT AI pada 12 November dari pasar massal, NNP, DLBoost, dan Keem Bay. Produk-produk ini tanpa diragukan lagi adalah puncak dari lebih dari tiga tahun kerja sejak akuisisi Movidius dan Nervana pada paruh kedua 2016 dan penciptaan Grup Produk AI mereka, dipimpin oleh Naveen Rao, salah satu pendiri Nervana.

NNP, DLBoost dan Keem Bay, chip Intel baru untuk AI dan jaringan saraf

Rao mencatat bahwa Intel sudah menjadi pemain besar di sektor AI dan bahwa pendapatan AI pada 2019 akan melebihi $ 3, 5 miliar, naik dari lebih dari $ 1 miliar pada 2017. Intel sudah memiliki perangkat keras yang berbeda untuk semua. Bagian depan OpenVINO untuk IOt, Agilex FPGAs, Ice Lake di PC, DLBoost dari Cascade Lake, dan lebih jauh lagi, grafik diskrit masa depannya.

Prosesor: DLBoost

Intel menunjukkan kompatibilitas dengan bfloat16 di Cooper Lake 56-core yang akan keluar tahun depan sebagai bagian dari jajaran fungsi AI DLBoost dalam prosesornya. Bfloat16 adalah format numerik yang mencapai presisi yang mirip dengan floating point presisi tunggal (FP32) dalam pelatihan AI.

Intel tidak memberikan perkiraan peningkatan kinerja, tetapi ia menyatakan bahwa, untuk tujuan kesimpulan, Cooper Lake 30 kali lebih cepat daripada Skylake-SP. Di sisi PC, Ice Lake menggabungkan instruksi DLBoost AVX-512_VNNI yang sama yang juga ada di Cascade Lake.

Movidius: VPU Keem Bay

Sebagai bagian dari strateginya menuju kecerdasan buatan, seperti kamera pintar, robot, drone, dan VR / AR, Intel mengakuisisi Movidius pada 2016. Movidius menyebut chip berdaya rendah ini "unit pemrosesan visi" (VPU). Mereka menampilkan kemampuan pemrosesan sinyal gambar (ISP), akselerator perangkat keras, prosesor MIPS, dan prosesor vektor 128-bit yang dapat diprogram (VLIW) yang Anda sebut core SHAVE.

Kunjungi panduan kami tentang prosesor terbaik di pasar

Intel kini telah merinci apa yang disebutnya 'Gen 3' Intel Movidius VPU dengan nama kode Keem Bay. Menurut Intel, ia memiliki kinerja inferensi lebih dari 10 kali lebih tinggi daripada Myriad X dan mengkonsumsi jumlah energi yang sama.

Nervana Neural Network Processors (NNP)

Intel memiliki NNP untuk pelatihan dan inferensi jaringan saraf yang dalam. Intel NNP-I untuk inferensi didasarkan pada dua inti Ice Lake Sunny Cove dan dua belas inti akselerator ICE. Intel mengklaim itu akan memberikan kinerja hebat per watt dan menghitung kepadatan. Dalam form factor M.2, ia mampu 50 TOPS pada 12W, yang setara dengan 4.8TOPS / W, seperti yang diumumkan sebelumnya. Intel mengungkapkan bahwa faktor bentuk kartu PCIe mengkonsumsi 75W dan menghasilkan hingga 170 TOPS (dengan presisi INT8).

Intel mengulangi efisiensi penskalaan hampir-linier yang tinggi yaitu 95% untuk 32 kartu, dibandingkan dengan 73% untuk Nvidia.

Intel telah menyiapkan berbagai macam chip untuk semua lini, AI, 5G, jaringan saraf, pengemudian otonom, dll., Di pasar yang tahun ini menghasilkan pendapatan diperkirakan 10 miliar dolar. Kami akan terus memberi Anda informasi.

Fon Tomshardware

Pengolah

Pilihan Editor

Back to top button