Nvidia 【semua informasi】
Daftar Isi:
- Sejarah Nvidia
- Nvidia GeForce dan Nvidia Pascal, mendominasi permainan
- Kecerdasan buatan dan arsitektur Volta
- Masa depan Nvidia melewati Turing dan Ampere
- NVIDIA G-Sync, mengakhiri masalah sinkronisasi gambar
Nvidia Corporation, lebih dikenal sebagai Nvidia, adalah perusahaan teknologi Amerika yang didirikan di Delaware dan berbasis di Santa Clara, California. Nvidia merancang unit pemrosesan grafis untuk permainan video dan pasar profesional, serta sistem unit chip (SoC) untuk pasar komputasi otomotif dan seluler. Lini produk intinya, GeForce, bersaing langsung dengan produk AMD Radeon.
Kami merekomendasikan membaca panduan perangkat keras dan komponen PC terbaik kami:
Selain memproduksi GPU, Nvidia menyediakan kemampuan pemrosesan paralel di seluruh dunia untuk para peneliti dan ilmuwan, memungkinkan mereka untuk menjalankan aplikasi kinerja tinggi secara efisien. Baru-baru ini, telah pindah ke pasar komputasi mobile, di mana ia memproduksi prosesor mobile Tegra untuk konsol video game, tablet, dan navigasi otonom dan sistem hiburan kendaraan. Ini telah menyebabkan Nvidia menjadi perusahaan yang berfokus pada empat pasar sejak 2014 : game, visualisasi profesional, pusat data, dan kecerdasan buatan dan mobil.
Indeks isi
Sejarah Nvidia
Nvidia didirikan pada tahun 1993 oleh Jen-Hsun Huang, Chris Malachowsky, dan Curtis Priem. Tiga co-founder perusahaan berhipotesis bahwa arah yang tepat untuk komputasi akan melalui pemrosesan yang dipercepat grafis, percaya bahwa model komputasi ini dapat memecahkan masalah yang tidak bisa diselesaikan oleh komputasi tujuan umum. Mereka juga mencatat bahwa video game adalah beberapa masalah yang paling menantang secara komputasional, dan bahwa mereka memiliki volume penjualan yang sangat tinggi.
Dari perusahaan video game kecil hingga raksasa kecerdasan buatan
Perusahaan ini lahir dengan modal awal $ 40.000, awalnya tidak memiliki nama, dan co-founder menamai semua file NV-nya, seperti dalam "rilis berikutnya." Kebutuhan untuk menggabungkan perusahaan menyebabkan para pendiri untuk meninjau semua kata dengan dua huruf, yang menyebabkan mereka menjadi "invidia", kata Latin yang berarti "iri".
Peluncuran RIVA TNT pada tahun 1998 mengkonsolidasikan reputasi Nvidia untuk mengembangkan adapter grafis. Pada akhir 1999, Nvidia merilis GeForce 256 (NV10), yang paling terkenal memperkenalkan transformasi dan pencahayaan tingkat konsumen (T&L) dalam perangkat keras 3D. Beroperasi pada 120 MHz dan menampilkan empat garis piksel, itu menerapkan akselerasi video canggih, kompensasi gerak, dan pencampuran sub-gambar perangkat keras. GeForce mengungguli produk yang sudah ada dengan selisih yang lebar.
Karena kesuksesan produk-produknya, Nvidia memenangkan kontrak untuk mengembangkan perangkat keras grafis untuk konsol game Xbox Microsoft, menghasilkan Nvidia uang muka $ 200 juta. Namun, proyek ini mengambil banyak insinyur terbaik dari proyek lain. Dalam jangka pendek, ini tidak masalah, dan GeForce2 GTS dikirim pada musim panas 2000. Pada bulan Desember 2000, Nvidia mencapai kesepakatan untuk memperoleh aset intelektual dari saingan satu-satunya, 3dfx, pelopor teknologi grafis 3D untuk konsumen. yang memimpin lapangan dari pertengahan 1990-an hingga 2000. Proses akuisisi berakhir pada April 2002.
Pada Juli 2002, Nvidia mengakuisisi Exluna dengan jumlah uang yang dirahasiakan. Exluna bertanggung jawab untuk membuat berbagai alat render perangkat lunak. Kemudian, pada Agustus 2003, Nvidia mengakuisisi MediaQ sekitar $ 70 juta. Dan juga mengakuisisi iReady, penyedia solusi offload TCP / IP dan iSCSI berkinerja tinggi pada 22 April 2004.
Begitu besar kesuksesan Nvidia di pasar permainan video, sehingga pada Desember 2004 diumumkan bahwa itu akan membantu Sony dengan desain prosesor grafis RSX PlayStation 3, konsol permainan video generasi baru dari perusahaan Jepang yang ia memiliki tugas yang sulit mengulangi kesuksesan pendahulunya, yang paling laris dalam sejarah.
Pada Desember 2006, Nvidia menerima kutipan dari Departemen Kehakiman AS. Sehubungan dengan kemungkinan pelanggaran antitrust di industri kartu grafis. Pada saat itu AMD telah menjadi saingan besarnya, setelah pembelian ATI oleh yang terakhir. Sejak itu AMD dan Nvidia menjadi satu-satunya produsen kartu grafis video game, tidak melupakan chip terintegrasi Intel.
Forbes bernama Nvidia Perusahaan Terbaik Tahun Ini untuk 2007, mengutip prestasi yang dibuatnya selama lima tahun terakhir. Pada 5 Januari 2007, Nvidia mengumumkan bahwa mereka telah menyelesaikan akuisisi PortalPlayer, Inc, dan pada Februari 2008, Nvidia mengakuisisi Ageia, pengembang mesin fisika PhysX dan unit pemrosesan fisika yang menjalankan mesin ini. Nvidia mengumumkan bahwa mereka berencana untuk mengintegrasikan teknologi PhysX ke dalam produk-produk GPU GeForce mendatang.
Nvidia menghadapi kesulitan besar pada Juli 2008, ketika menerima penurunan pendapatan sekitar $ 200 juta setelah dilaporkan bahwa chipset seluler dan GPU seluler tertentu yang diproduksi oleh perusahaan memiliki tingkat kegagalan abnormal karena cacat produksi. Pada bulan September 2008, Nvidia menjadi subjek gugatan class action oleh mereka yang terkena dampak, menuduh bahwa GPU yang rusak telah dimasukkan ke dalam model notebook tertentu yang diproduksi oleh Apple, Dell dan HP. Opera sabun berakhir pada September 2010, ketika Nvidia mencapai kesepakatan yang akan mengganti biaya pemilik laptop yang terkena dampak untuk biaya perbaikan atau, dalam beberapa kasus, penggantian produk.
Pada November 2011, Nvidia merilis sistem chip ARG Tegra 3 untuk perangkat seluler setelah awalnya mempresentasikannya di Mobile World Congress. Nvidia mengklaim bahwa chip tersebut menampilkan CPU mobile quad-core pertama. Pada Januari 2013, Nvidia memperkenalkan Tegra 4, serta Nvidia Shield, konsol game portabel berbasis Android yang ditenagai oleh prosesor baru.
Pada 6 Mei 2016 Nvidia memperkenalkan kartu grafis GeForce GTX 1080 dan 1070, yang pertama berdasarkan mikroarsitektur Pascal baru. Nvidia mengklaim bahwa kedua model mengungguli model Titan X Maxwell berbasis mereka. Kartu-kartu ini masing-masing menggabungkan memori GDDR5X dan GDDR5, dan menggunakan proses pembuatan 16nm. Arsitektur Pascal juga mendukung fitur perangkat keras baru yang dikenal sebagai beberapa proyeksi simultan (SMP), yang dirancang untuk meningkatkan kualitas multi-monitor dan rendering realitas virtual. Pascal telah memungkinkan pembuatan laptop yang memenuhi standar desain Max-Q Nvidia.
Pada bulan Mei 2017, Nvidia mengumumkan kemitraan dengan Toyota Motor Corp di mana yang terakhir akan menggunakan platform kecerdasan buatan Drive X series Nvidia untuk kendaraan otonomnya. Pada bulan Juli 2017, Nvidia dan raksasa pencarian China Baidu, Inc. mengumumkan kemitraan AI yang kuat yang mencakup komputasi awan, mengemudi mandiri, perangkat konsumen, dan kerangka kerja AI Baidu, PaddlePaddle.
Nvidia GeForce dan Nvidia Pascal, mendominasi permainan
GeForce adalah nama merek untuk kartu grafis berdasarkan unit pemrosesan grafis (GPU) yang dibuat oleh Nvidia dari tahun 1999. Hingga saat ini, seri GeForce telah dikenal enam belas generasi sejak awal. Versi-versi yang berfokus pada pengguna profesional kartu-kartu ini datang dengan nama Quadro, dan menyertakan beberapa fitur yang berbeda pada tingkat pengemudi. Persaingan langsung GeForce adalah AMD dengan kartu Radeon-nya.
Pascal adalah nama kode untuk mikroarsitektur GPU terbaru yang dikembangkan oleh Nvidia yang telah mencapai pasar video game, sebagai penerus arsitektur Maxwell sebelumnya. Arsitektur Pascal pertama kali diperkenalkan pada April 2016 dengan peluncuran Tesla P100 untuk server pada 5 April 2016. Saat ini, Pascal terutama digunakan dalam seri GeForce 10, dengan GeForce GTX 1080 dan GTX menjadi Kartu video game 1070 pertama dirilis dengan arsitektur ini, masing-masing pada 17 Mei 2016 dan 10 Juni 2016. Pascal diproduksi menggunakan proses FinFET 16nm TSMC, yang memungkinkannya untuk menawarkan efisiensi dan kinerja energi yang jauh lebih unggul dibandingkan dengan Maxwell, yang diproduksi pada FinFET 28nm.
Arsitektur Pascal diatur secara internal dalam apa yang dikenal sebagai streaming multiprosesor ( SM), unit fungsional yang terdiri dari 64 CUDA Cores, yang pada gilirannya dibagi menjadi dua blok pemrosesan masing-masing 32 CUDA Cores. dari mereka dan disertai dengan buffer instruksi, perencana warp, 2 unit pemetaan tekstur dan 2 unit pengiriman. Drive SM ini setara dengan CU AMD.
Arsitektur Pascal Nvidia dirancang untuk menjadi yang paling efisien dan canggih di dunia game. Tim teknik Nvidia telah melakukan banyak upaya dalam menciptakan arsitektur GPU yang mampu kecepatan clock sangat tinggi, sambil mempertahankan konsumsi daya yang ketat. Untuk mencapai hal ini, desain yang sangat hati-hati dan dioptimalkan telah dipilih di semua sirkuitnya, menghasilkan Pascal yang mampu mencapai frekuensi 40% lebih tinggi dari Maxwell, angka yang jauh lebih tinggi daripada proses yang akan diizinkan pada 16 nm tanpa semua optimasi di tingkat desain.
Memori adalah elemen kunci dalam kinerja kartu grafis, teknologi GDDR5 diumumkan pada tahun 2009, sehingga sudah menjadi usang untuk kartu grafis paling kuat saat ini. Untuk alasan ini, Pascal mendukung memori GDDR5X, yang merupakan standar antarmuka memori tercepat dan paling maju dalam sejarah pada saat peluncuran kartu grafis ini, mencapai kecepatan transfer hingga 10 Gbps atau hampir 100 picoseconds antara bit. data. Memori GDDR5X juga memungkinkan kartu grafis untuk mengkonsumsi daya lebih sedikit dibandingkan dengan GDDR5, karena tegangan operasi adalah 1, 35V, dibandingkan dengan 1, 5V atau lebih yang dibutuhkan chip GDDR5 yang lebih cepat. Pengurangan tegangan ini diterjemahkan menjadi frekuensi operasi 43% lebih tinggi dengan konsumsi daya yang sama.
Inovasi Pascal penting lainnya berasal dari teknik kompresi memori tanpa kehilangan kinerja, yang mengurangi permintaan bandwidth oleh GPU. Pascal mencakup teknologi kompresi warna delta generasi keempat. Dengan kompresi warna delta, GPU menganalisis adegan untuk menghitung piksel yang informasinya dapat dikompresi tanpa mengorbankan kualitas pemandangan. Sementara arsitektur Maxwell tidak dapat mengompres data yang terkait dengan beberapa elemen, seperti vegetasi dan bagian-bagian mobil dalam permainan Project Cars, Pascal mampu mengompres sebagian besar informasi tentang elemen-elemen ini, sehingga menjadi jauh lebih efisien daripada Maxwell. Sebagai akibatnya, Pascal mampu secara signifikan mengurangi jumlah byte yang harus diekstraksi dari memori. Pengurangan byte ini diterjemahkan menjadi 20% tambahan bandwidth efektif, menghasilkan peningkatan 1, 7 kali bandwidth dengan penggunaan memori GDDR5X dibandingkan dengan GDDR5 dan arsitektur Maxwell.
Pascal juga menawarkan peningkatan penting dalam kaitannya dengan Asynchronous Computing, sesuatu yang sangat penting karena saat ini beban kerjanya sangat kompleks. Berkat peningkatan ini, arsitektur Pascal lebih efisien dalam mendistribusikan beban di antara semua unit SM yang berbeda, yang berarti hampir tidak ada inti CUDA yang tidak digunakan. Ini memungkinkan optimalisasi GPU menjadi lebih besar, membuat penggunaan semua sumber daya yang dimilikinya menjadi lebih baik.
Tabel berikut merangkum fitur paling penting dari semua kartu GeForce berbasis Pascal.
KARTU GRAFIS PASCAL NVIDIA GEFORCE |
||||||
CUDA Cores | Frekuensi (MHz) | Memori | Antarmuka memori | Bandwidth memori (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64 bit | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | GDDR5 4 GB | 128 bit | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3GB GDDR5 | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | GDDR5 6 GB | 192 bit | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8GB GDDR5 | 256 bit | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8GB GDDR5 | 256 bit | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB GDDR5X | 256 bit | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | GDDR5X 11 GB | 352 bit | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | GDDR5X 12 GB | 384 bit | 547 | 250 |
Kecerdasan buatan dan arsitektur Volta
GPU Nvidia banyak digunakan di bidang pembelajaran mendalam, kecerdasan buatan, dan analisis dipercepat sejumlah besar data. Perusahaan ini mengembangkan pembelajaran mendalam yang didasarkan pada teknologi GPU, untuk menggunakan kecerdasan buatan untuk mengatasi masalah seperti deteksi kanker, ramalan cuaca dan kendaraan mengemudi otonom, seperti Tesla yang terkenal.
Tujuan Nvidia adalah membantu jaringan belajar untuk "berpikir ". GPU Nvidia bekerja sangat baik untuk tugas pembelajaran dalam karena dirancang untuk komputasi paralel, dan bekerja dengan baik untuk menangani operasi vektor dan matriks yang berlaku dalam pembelajaran mendalam. GPU perusahaan digunakan oleh para peneliti, laboratorium, perusahaan teknologi, dan perusahaan bisnis. Pada tahun 2009, Nvidia berpartisipasi dalam apa yang disebut big bang untuk pembelajaran mendalam, karena jaringan pembelajaran saraf dalam dikombinasikan dengan unit pemrosesan grafis perusahaan. Pada tahun yang sama, Google Brain menggunakan GPU Nvidia untuk menciptakan jaringan saraf yang mendalam yang mampu mempelajari mesin, di mana Andrew Ng menentukan bahwa mereka dapat meningkatkan kecepatan sistem pembelajaran dalam hingga 100 kali.
Pada April 2016, Nvidia memperkenalkan superkomputer DGX-1 berbasis 8-GPU cluster untuk meningkatkan kemampuan pengguna untuk menggunakan pembelajaran mendalam dengan menggabungkan GPU dengan perangkat lunak yang dirancang khusus. Nvidia juga mengembangkan mesin virtual Nvidia Tesla K80 dan P100 berbasis GPU, tersedia melalui Google Cloud, yang dipasang Google pada November 2016. Microsoft menambahkan server berbasis pada teknologi Nvidia GPU dalam pratinjau seri N-nya, berdasarkan kartu Tesla K80. Nvidia juga bermitra dengan IBM untuk membuat perangkat lunak yang meningkatkan kemampuan AI GPU-nya. Pada 2017, GPU Nvidia juga dibawa online di Pusat RIKEN untuk Proyek Kecerdasan Lanjut untuk Fujitsu.
Pada Mei 2018, para peneliti di departemen kecerdasan buatan Nvidi a menyadari kemungkinan bahwa robot dapat belajar melakukan pekerjaan hanya dengan mengamati orang yang melakukan pekerjaan yang sama. Untuk mencapai hal ini, mereka telah menciptakan sistem yang, setelah ditinjau dan diuji secara singkat, sekarang dapat digunakan untuk mengontrol robot universal generasi berikutnya.
Volta adalah nama kode untuk mikroarsitektur GPU paling maju yang dikembangkan oleh Nvidia, itu adalah arsitektur penerus Pascal dan diumumkan sebagai bagian dari ambisi peta jalan masa depan pada Maret 2013. Arsitekturnya dinamai Alessandro Volta, ahli fisika, ahli kimia dan penemu baterai listrik. Arsitektur Volta belum mencapai sektor permainan, meskipun telah melakukannya dengan kartu grafis Nvidia Titan V, yang berfokus pada sektor konsumen dan yang juga dapat digunakan dalam peralatan permainan.
Nvidia Titan V ini adalah kartu grafis berbasis inti GV100 dan tiga tumpukan memori HBM2, semuanya dalam satu paket. Kartu ini memiliki total memori HBM2 12 GB yang bekerja melalui antarmuka memori 3072-bit. GPU-nya mengandung lebih dari 21 juta transistor, 5.120 core CUDA dan 640 Tensor core untuk menghasilkan kinerja 110 TeraFLOPS dalam pembelajaran mendalam. Frekuensi operasinya adalah basis 1200 MHz dan 1455 MHz dalam mode turbo, sementara memori bekerja pada 850 MHz, menawarkan bandwidth 652, 8 GB / s. Versi Edisi CEO baru-baru ini diumumkan yang meningkatkan memori hingga 32GB.
Kartu grafis pertama yang diproduksi oleh Nvidia dengan arsitektur Volta adalah Tesla V100, yang merupakan bagian dari sistem Nvidia DGX-1. Tesla V100 memanfaatkan inti GV100 yang dirilis pada 21 Juni 2017. Volta GV100 GPU dibangun dalam proses pembuatan FinFET 12nm , dengan memori HBM2 32GB yang mampu memberikan bandwidth hingga 900GB / s.
Volta juga menghidupkan Nvidia Tegra SoC terbaru, yang disebut Xavier, yang diumumkan pada 28 September 2016. Xavier Berisi 7 miliar transistor dan 8 core ARMv8 kustom, bersama dengan Volta GPU dengan 512 core CUDA dan TPU dari open source (Tensor Processing Unit) yang disebut DLA (Deep Learning Accelerator). Xavier dapat mengkodekan dan mendekode video pada resolusi 8K Ultra HD (7680 × 4320 piksel) secara real time, semua dengan TDP 20-30 watt dan ukuran cetakan diperkirakan sekitar 300mm2 berkat proses pembuatan 12. di FinFET.
Arsitektur Volta ditandai dengan menjadi yang pertama memasukkan Tensor Core, core yang dirancang khusus untuk menawarkan kinerja yang jauh lebih unggul dalam tugas pembelajaran yang mendalam dibandingkan dengan core CUDA biasa. Tensor Core adalah unit yang mengalikan dua matriks FP16 4 × 4 dan kemudian menambahkan matriks FP16 atau FP32 ketiga ke hasilnya, dengan menggunakan operasi penggabungan dan penggandaan, memperoleh hasil FP32 yang secara opsional dapat diturunkan ke hasil FP16. Inti tensor dimaksudkan untuk mempercepat pelatihan jaringan saraf.
Volta juga menonjol karena termasuk antarmuka NVLink canggih, yang merupakan protokol komunikasi berbasis kawat untuk komunikasi semikonduktor jangka pendek yang dikembangkan oleh Nvidia, yang dapat digunakan untuk transfer kode data dan kontrol dalam sistem prosesor berdasarkan CPU dan GPU dan yang hanya didasarkan pada GPU. NVLink menentukan koneksi point-to-point dengan kecepatan data 20 dan 25 Gb / s per jalur data dan per alamat dalam versi pertama dan kedua. Total data rate dalam sistem dunia nyata adalah 160 dan 300 GB / s untuk jumlah total stream data input dan output. Produk NVLink yang diperkenalkan hingga saat ini berfokus pada ruang aplikasi berkinerja tinggi. NVLINK pertama kali diumumkan pada bulan Maret 2014 dan menggunakan interkoneksi pensinyalan berkecepatan tinggi milik yang dikembangkan dan dikembangkan oleh Nvidia.
Tabel berikut merangkum fitur paling penting dari kartu berbasis Volta:
KARTU GRAFIS NVIDIA VOLTA |
||||||||
CUDA Cores | Core Tensor | Frekuensi (MHz) | Memori | Antarmuka memori | Bandwidth memori (GB / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | 32GB HBM2 | 4.096 bit | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3, 072 bit | 652 | 250 | |
Edisi CEO GeForce Titan V | 5120 | 640 | 1200/1455 | 32GB HBM2 | 4.096 bit | 900 | 250 |
Masa depan Nvidia melewati Turing dan Ampere
Dua arsitektur Nvidia yang akan datang adalah Turing dan Ampere sesuai dengan semua rumor yang muncul hingga saat ini, mungkin saja ketika Anda membaca posting ini, salah satunya sudah diumumkan secara resmi. Untuk saat ini, tidak ada yang diketahui secara pasti tentang kedua arsitektur ini, meskipun dikatakan bahwa Turing akan menjadi versi yang disederhanakan dari Volta untuk pasar game, pada kenyataannya diharapkan akan tiba dengan proses pembuatan yang sama pada 12 nm.
Ampere terdengar seperti arsitektur penerus Turing, meskipun itu juga bisa menjadi penerus Volta ke sektor kecerdasan buatan. Sama sekali tidak ada yang diketahui tentang ini, meskipun tampaknya logis untuk mengharapkannya tiba pada 7 nm. Desas-desus menyarankan bahwa Nvidia akan mengumumkan kartu GeForce barunya di Gamecom pada bulan Agustus mendatang, baru kemudian kita akan meninggalkan keraguan tentang apa yang akan menjadi Turing atau Ampere, jika mereka benar-benar ada.
NVIDIA G-Sync, mengakhiri masalah sinkronisasi gambar
G-Sync adalah teknologi sinkronisasi adaptif milik yang dikembangkan oleh Nvidia, yang tujuan utamanya adalah untuk menghilangkan robeknya layar dan kebutuhan akan alternatif dalam bentuk perangkat lunak seperti Vsync. G-Sync menghilangkan robeknya layar dengan memaksanya untuk beradaptasi dengan framerate perangkat output, kartu grafis, daripada perangkat output yang diadaptasi ke layar, sehingga gambar sobek di layar.
Agar monitor kompatibel dengan G-Sync, monitor harus berisi modul perangkat keras yang dijual oleh Nvidia. AMD (Advanced Micro Devices) telah merilis teknologi serupa untuk tampilan, yang disebut FreeSync, yang memiliki fungsi yang sama dengan G-Sync tetapi tidak memerlukan perangkat keras tertentu.
Nvidia menciptakan fungsi khusus untuk menghindari kemungkinan frame baru siap saat menggambar duplikat di layar, sesuatu yang dapat menghasilkan penundaan dan / atau gagap, modul mengantisipasi pembaruan dan menunggu frame berikutnya selesai. Kelebihan piksel juga menjadi menyesatkan dalam skenario pembaruan yang tidak diperbaiki, dan solusi memperkirakan kapan pembaruan berikutnya akan terjadi, oleh karena itu nilai overdrive harus diimplementasikan dan disesuaikan untuk setiap panel untuk menghindari efek hantu.
Modul ini didasarkan pada FPGA keluarga Altera Arria V GX dengan elemen logika 156K, 396 blok DSP, dan 67 saluran LVDS. Ini diproduksi dalam proses TSMC 28LP dan dikombinasikan dengan tiga chip untuk total 768 MB DDR3L DRAM, untuk mencapai bandwidth tertentu. FPGA yang digunakan juga dilengkapi antarmuka LVDS untuk mengontrol panel monitor. Modul ini dimaksudkan untuk menggantikan pendaki umum dan agar mudah diintegrasikan oleh produsen monitor, yang hanya perlu merawat papan sirkuit catu daya dan koneksi input.
G-Sync telah menghadapi beberapa kritik karena sifat kepemilikannya, dan fakta bahwa ia masih dipromosikan ketika ada alternatif gratis, seperti standar VESA Adaptive-Sync, yang merupakan fitur opsional DisplayPort 1.2a. Sementara FreeSync AMD didasarkan pada DisplayPort 1.2a, G-Sync membutuhkan modul buatan Nvidia alih-alih scaler pada layar untuk kartu grafis Nvidia GeForce agar berfungsi dengan baik, kompatibel dengan Kepler, Maxwell, Pascal, dan mikroarsitektur. Volta.
Langkah selanjutnya telah diambil dengan teknologi G-Sync HDR, yang seperti namanya, menambahkan kemampuan HDR untuk sangat meningkatkan kualitas gambar monitor. Untuk memungkinkan ini, lompatan yang signifikan dalam perangkat keras harus dibuat. Versi baru ini G-Sync HDR menggunakan Intel Altera Arria 10 GX 480 FPGA, prosesor yang sangat canggih dan sangat dapat diprogram yang dapat dikodekan untuk berbagai aplikasi, yang disertai dengan 3 GB memori 2400MHz DDR4 yang diproduksi oleh Micron. Ini membuat harga monitor ini lebih mahal.
Di sini mengakhiri posting kami tentang semua yang perlu Anda ketahui tentang Nvidia. Ingatlah bahwa Anda dapat membagikannya di jejaring sosial sehingga menjangkau lebih banyak pengguna. Anda juga dapat meninggalkan komentar jika Anda memiliki saran atau sesuatu untuk ditambahkan.
Semua informasi tentang tablet yoga Lenovo
Segala sesuatu tentang tablet pertama dari jajaran Lenovo Yoga: karakteristik teknis, gambar, baterai, kamera, ketersediaan dan harga.
Nvidia rtx 【semua informasi】
Kami sudah memiliki kartu grafis NVIDIA RTX yang baru. Dari model unggulan: NVIDIA RTX 2080 Ti, hingga model untuk gamer terbanyak di 4K:
▷ Nvidia quadro 【semua informasi】?
Semua informasi tentang kartu grafis profesional Nvidia Quadro: karakteristik, desain, kinerja, kelebihan dan kekurangan ✅