Manufaktur industri
Industri Internet of Things | bahan industri | Pemeliharaan dan Perbaikan Peralatan | Pemrograman industri |
home  MfgRobots >> Manufaktur industri >  >> Manufacturing Technology >> Teknologi Industri

Jelajahi 14 Alternatif dan Pesaing Nvidia Terkemuka di tahun 2026

NVIDIA mendominasi pasar GPU diskrit untuk desktop, menguasai hampir 88% pangsa pasar pada tahun 2024, terutama melalui lini produk GeForce, yang populer di kalangan gamer dan pengguna profesional. 

Perusahaan ini juga merupakan pemimpin pasar dalam perangkat keras AI dan pembelajaran mesin, dengan hampir 98% pangsa pasar untuk GPU dan prosesor AI yang digunakan di pusat data. Menurut TechInsights, sebuah firma analisis semikonduktor, Nvidia mengirimkan 3,76 juta GPU pusat data pada tahun 2023, naik dari 2,64 juta pada tahun 2022. [1]

Lonjakan ini berkontribusi pada pendapatan NVIDIA yang mencapai $96,3 miliar untuk tahun fiskal yang berakhir pada Juli 2024, peningkatan yang mengejutkan sebesar 194,6% dari tahun ke tahun. Sekitar 78% dari pendapatan ini berasal dari bisnis pusat data, dan 17,1% berasal dari segmen GPU desktop.

Pada TA 2025, pendapatan Nvidia mencapai $165,21 miliar, naik 71,55% dari tahun sebelumnya. Laba kotornya meningkat hingga $115,39 miliar, meningkat sebesar 57,71% YoY.

Meskipun pendapatan Nvidia berkembang pesat, Nvidia juga menghadapi persaingan yang ketat di beberapa pasar utama. Di sini, kami menyoroti pesaing utama yang menantang dominasi NVIDIA di berbagai bidang seperti chip AI, pusat data, GPU gaming, dan teknologi mengemudi otonom.

Tahukah kamu? 

Akuisisi NVIDIA yang paling mahal hingga saat ini adalah pembelian Mellanox Technologies senilai $6,9 miliar pada tahun 2019. Akuisisi ini membantu Nvidia memperkuat posisinya di pasar pusat data dengan menawarkan solusi komputasi end-to-end yang menggabungkan GPU dan jaringan. [2]

14. IBM

Didirikan :1911
Pendapatan Tahunan :$64,03 miliar+
Kompetisi :AI dan HPC

IBM bersaing dengan NVIDIA terutama di bidang AI, komputasi kinerja tinggi (HPC), dan solusi pusat data. Lebih khusus lagi, Watson AI dan Power Systems-nya bersaing dengan GPU akselerasi AI NVIDIA yang digunakan untuk beban kerja machine learning.

IBM memiliki kehadiran yang kuat dalam layanan cloud hybrid — IBM menyediakan solusi AI dan otomatisasi yang disesuaikan untuk berbagai industri seperti keuangan, layanan kesehatan, dan logistik. Divisi konsultasinya membantu perusahaan mengintegrasikan teknologi AI dan cloud secara mendalam, sehingga menawarkan pendekatan yang lebih komprehensif dibandingkan strategi Nvidia yang berfokus pada perangkat keras.

Menurut laporan riset pasar, layanan IBM Watson global bernilai $5,5 miliar pada tahun 2023 dan diproyeksikan mencapai $76,47 miliar pada tahun 2033, meningkat pada CAGR sebesar 30,1%. [3]

IBM juga banyak berinvestasi dalam komputasi kuantum. Pada tahun 2023, mereka meluncurkan prosesor Condor yang kuat dengan 1.121 qubit superkonduktor, yang mungkin bersaing dengan usaha masa depan NVIDIA di bidang ini. [4]

Di sisi penelitian, perangkat keras kuantum IBM digunakan untuk eksperimen yang lebih kompleks, termasuk simulasi teori pengukur kisi dan studi fase topologi. Eksperimen ini menyoroti semakin matangnya perangkat kuantum “skala menengah yang berisik”.

13. Teknologi Marvell

Didirikan :1995
Pendapatan Tahunan :$6,5 miliar+
Kompetisi :Infrastruktur data

Marvell Technology merupakan perusahaan semikonduktor yang bersaing dengan NVIDIA di segmen tertentu, khususnya di pasar data center, cloud, dan infrastruktur 5G. Meskipun NVIDIA berfokus pada GPU, Marvell berfokus pada jaringan, penyimpanan, dan teknologi prosesor untuk pusat data.

Marvell mengembangkan Ethernet, sakelar pusat data, unit pemrosesan data, dan pengontrol penyimpanan, yang dijual ke OEM, penyedia layanan cloud, dan perusahaan telekomunikasi. Perusahaan ini memiliki jejak yang kuat di pasar infrastruktur 5G — perusahaan ini bekerja sama dengan penyedia telekomunikasi besar dan menawarkan produk yang dirancang khusus untuk mengoptimalkan stasiun pangkalan 5G. 

Pada tahun 2025, perusahaan memperkenalkan Solusi Peningkatan UALink, yang bertujuan untuk memaksimalkan pemanfaatan komputasi di seluruh akselerator dan switch. Fitur utamanya mencakup latensi rendah, dukungan untuk standar terbuka, dan opsi pengemasan fleksibel seperti tembaga atau optik yang dikemas bersama.

Marvell memegang lebih dari 20.290 paten di seluruh dunia, mencakup teknologi semikonduktor, jaringan, dan 5G. Dari jumlah tersebut, 49,6% masih aktif. Mayoritas paten telah diajukan di AS, diikuti oleh Tiongkok dan negara-negara Eropa. [5]

12. Sinopsis

Didirikan :1986 
Pendapatan Tahunan :$6,43 miliar+
Kompetisi :Menyediakan alat otomatisasi desain berbasis AI

Synopsys menyediakan perangkat lunak dan kekayaan intelektual (IP) untuk desain, verifikasi, dan pengujian chip, yang digunakan oleh perusahaan semikonduktor seperti Nvidia untuk membangun GPU kompleks, akselerator AI, dan SoC (system-on-chip). Synopsys berfokus pada proses desain, sedangkan Nvidia berfokus pada pembuatan dan pemasaran chip itu sendiri.

Synopsys juga menawarkan solusi dalam keamanan perangkat lunak dan verifikasi perangkat keras. Baik Synopsys dan Nvidia bersinggungan dalam memastikan keamanan sistem berbasis AI, meskipun Synopsys lebih berfokus pada tahap verifikasi dan pengujian. 

Synopsys telah menyaksikan pertumbuhan yang konsisten dalam alat otomatisasi desain elektronik (EDA) dan lisensi IP semikonduktor, dengan pertumbuhan pendapatan tahunan sebesar 13-15%. Pertumbuhan ini didorong oleh meningkatnya permintaan akan AI dan desain chip khusus. [6]

Pada tahun 2025, Synopsys mengakuisisi Ansys, menciptakan sinergi baru dengan menggabungkan alat Electronic Design Automation (EDA) Synopsys dengan simulasi dan pemodelan berbasis fisika Ansys. Tujuannya adalah untuk memberikan kemampuan “silikon-ke-sistem” yang lebih kuat di seluruh industri. 

11. Amazon (AWS Inferentia dan Trainium Chips)

Didirikan :1994
Pendapatan Tahunan :$111 miliar+ (dari AWS)
Kompetisi :Prosesor Graviton dan Inferentia

AWS telah mengembangkan silikon kustomnya sendiri, termasuk prosesor Graviton untuk beban kerja komputasi umum dan chip Inferentia yang dioptimalkan untuk inferensi pembelajaran mesin. Dengan dua chip ini, Amazon bertujuan untuk mengurangi ketergantungannya pada perangkat keras pihak ketiga. [7]

Prosesor Inferentia Amazon menargetkan prosesor A100 dan H100 Nvidia, yang dirancang untuk beban kerja inferensi pembelajaran mesin. Mereka juga telah memperkenalkan chip Trainium untuk pelatihan deep learning model dengan lebih dari 100 miliar parameter. [8][9]

Amazon menawarkan layanan AI dan pembelajaran mesin, seperti SageMaker (layanan pembelajaran mesin yang dikelola sepenuhnya), melalui AWS. Sebaliknya, Nvidia mendukung sistem AI dengan GPU dan platform perangkat lunaknya seperti CUDA.

Perusahaan juga telah membuat kemajuan signifikan dalam sistem otonom dengan mengakuisisi Zoox, sebuah startup penggerak otonom. Akuisisi ini meningkatkan posisi Amazon dalam paten teknologi mengemudi otonom dan membantu perusahaan meningkatkan otomatisasi dalam jaringan distribusinya, khususnya untuk pengiriman jarak jauh.

Selain itu, AWS berupaya mengurangi ketergantungan pada vendor GPU (terutama Nvidia) untuk beban kerja pelatihan dan inferensi dengan mengembangkan dan menskalakan chipnya sendiri. Hal ini mengurangi biaya (yang disebut “pajak Nvidia”) dan memberi AWS kontrol lebih besar atas kinerja, energi, dan skalabilitas. 

10. Alibaba Cloud

Hanguang 800 NPU

Didirikan :2009 
Pendapatan Tahunan :$15 miliar+
Kompetisi :Infrastruktur perangkat keras AI

Alibaba Cloud adalah salah satu penyedia layanan cloud terbesar, menguasai hampir 4% pangsa pasar layanan cloud global. Ia menawarkan layanan IaaS, PaaS, dan AI. Seperti AWS, Alibaba Cloud menggunakan GPU Nvidia untuk beban kerja AI dan ML, namun juga telah mengembangkan chipnya sendiri untuk bersaing dengan perangkat keras Nvidia.

Misalnya, Hanguang 800 (chip inferensi AI) bersaing dengan GPU Nvidia A100 dan H100 untuk inferensi AI di cloud. Dioptimalkan untuk konsumsi energi yang rendah, Hanguang 800 dapat menyelesaikan tugas-tugas seperti analisis gambar berbasis AI (yang biasanya memakan waktu satu jam) hanya dalam lima menit. [10]

Pada tahun 2022, Alibaba Cloud memperkenalkan platform pengembangan chipnya, Wujian 600. Platform ini dapat membantu produsen merancang SoC berkinerja tinggi untuk komputasi edge-AI, memanfaatkan arsitektur set instruksi RISC-V dengan cara yang hemat biaya dan efisien. [11]

Pada tahun 2023, pengeluaran penelitian dan pengembangan tahunan Alibaba mencapai $7,6 miliar, dengan fokus pada chip AI, infrastruktur cloud, dan pengembangan chip khusus. Untuk tahun fiskal 2024, Alibaba Cloud Intelligence Group melaporkan pendapatan tahunan sebesar $14,73 miliar, meningkat 3% dibandingkan tahun lalu, dengan EBITA mencapai $848 juta.

Pada tahun 2025, Alibaba berjanji untuk menginvestasikan hampir $52 miliar selama tiga tahun ke depan untuk membangun infrastruktur cloud dan kemampuan AI-nya. Jumlah ini lebih besar dari jumlah yang diklaim telah dibelanjakan untuk AI + cloud selama satu dekade terakhir. 

9. Google (Unit Pemrosesan Tensor – TPU)

Google TPU:Kayu Besi

Didirikan :2008 (platform Google Cloud)
Pendapatan Tahunan :$36 miliar+ (dari Google Cloud) 
Kompetisi :  Unit Pemrosesan Tensor (TPU)

Google telah mengembangkan Tensor Processing Unit (TPU) untuk mempercepat beban kerja machine learning. TPU dioptimalkan untuk TensorFlow, framework pembelajaran mesin sumber terbuka Google yang terintegrasi dengan CUDA NVIDIA. 

TPU memberikan efisiensi tinggi untuk pelatihan model AI. Misalnya, Google melaporkan bahwa TPU dapat melatih model seperti ResNet-50 hingga 15x lebih cepat dibandingkan GPU konvensional (seperti Nvidia P100) saat diperkenalkan.

Pada tahun 2024, Google mengumumkan TPU generasi keenam, yang menghasilkan komputasi puncak per chip 4,7 kali lebih banyak dan 67% lebih hemat energi dibandingkan generasi sebelumnya. TPU baru ini dirancang untuk mempercepat gelombang model AI berikutnya, menawarkan kinerja yang lebih cepat dan efisien dengan latensi yang lebih rendah. [12]

Google juga memimpin dalam penelitian dan inovasi AI, dengan memelopori pengembangan pembelajaran mendalam, pemrosesan bahasa alami, komputasi awan, dan perangkat keras khusus untuk AI. Pada TA 2024, perusahaan menghabiskan $47,13 miliar untuk penelitian dan pengembangan, meningkat 10,65% dari tahun ke tahun. [13]

Pada tahun 2025, Google mengumumkan Ironwood, TPU pertamanya yang dirancang khusus untuk inferensi, menghasilkan ~4.614 TFLOP per chip dan meningkatkan hingga 9.216 chip per cluster untuk ~42,5 exaflops yang diklaim.

8. Huawei  

Didirikan :1987 
Pendapatan Tahunan :$99,37 miliar
Kompetisi :  Infrastruktur AI dan 5G 

Huawei mengembangkan chip AI-nya sendiri, terutama prosesor Ascend. Chip Ascend 910 dan Ascend 310, misalnya, dirancang untuk tugas AI berperforma tinggi. Chip seri Ascend 910B generasi kedua mengalami peningkatan kinerja teoritis maksimum sebesar 80 TFLOPS (FP16) dibandingkan chip seri Ascend 910 generasi pertama. [14]

Chip-chip ini mendukung Huawei Cloud Services, vendor cloud terbesar kedua di Tiongkok daratan. NVIDIA bersaing di sini dengan memasok GPU ke penyedia dan perusahaan cloud besar lainnya untuk beban kerja AI dan ML. 

Huawei sedang mempersiapkan chip baru, seperti Ascend 910D, dengan ambisi untuk menyamai atau melampaui beberapa penawaran Nvidia dalam kemampuan pelatihan. 

Huawei juga merupakan pemimpin dalam telekomunikasi 5G dan komputasi edge, menguasai hampir 30% pasar peralatan telekomunikasi global. Teknologi AI dan 5G-nya sejalan dengan ambisi NVIDIA untuk mendominasi AI di edge, khususnya untuk sistem otonom dan IoT. [15]

7. Teknologi Mikron

Didirikan :1978
Pendapatan Tahunan :$21,37 miliar
Kompetisi :Solusi memori untuk beban kerja AI

Micron mengembangkan solusi penyimpanan DRAM, memori flash NAND, dan SSD. Meskipun perusahaan ini tidak bersaing secara langsung dalam GPU atau perangkat keras AI, produk-produknya sangat penting untuk kinerja model AI dan infrastruktur cloud, tempat NVIDIA juga beroperasi.

Solusi memori Micron menyimpan dan mengelola kumpulan data besar (yang diproses oleh chip AI), menyediakan akses berkecepatan tinggi yang diperlukan oleh algoritma AI. Perusahaan ini adalah pemasok utama memori GDDR6X, yang sangat penting untuk GPU performa tinggi NVIDIA yang digunakan dalam aplikasi AI dan pusat data.

Micron adalah produsen chip DRAM terbesar ketiga, menguasai sekitar 21,5% pasar DRAM global, di belakang Samsung dan SK Hynix. Ia juga menguasai 9,9% pasar memori flash NAND. [16]

Pada tahun 2025, perusahaan meluncurkan node DRAM 1 gamma, yang menggunakan litografi EUV (extreme ultraviolet). Mereka juga memperkenalkan modul faktor bentuk DDR5 baru yang menyertakan driver jam pada modul memori (daripada mengandalkan sepenuhnya pada jam CPU). Modul ini dapat mencapai kecepatan hingga 6,400 MT/s. 

6. Sistem Cisco

Didirikan :1984
Pendapatan Tahunan :$56,6 miliar+
Kompetisi :  AI, infrastruktur pusat data, dan jaringan

Kekuatan inti Cisco terletak pada perangkat keras (seperti switch dan router) dan solusi perangkat lunak untuk pusat data. Perusahaan ini juga menyediakan jaringan cloud dan alat jaringan yang ditentukan perangkat lunak (SDN), yang menguasai hampir 40% pasar infrastruktur jaringan perusahaan. [17]

Switch Nexus kelas atas, terutama yang didesain untuk pusat data, menghadirkan bandwidth tinggi dan jaringan latensi rendah, yang penting untuk beban kerja AI dan cloud. Arsitektur ACI Cisco mendukung otomatisasi jaringan dan optimalisasi beban kerja, dengan fokus pada pasar komputasi kinerja tinggi (HPC).

Cisco juga berinvestasi dalam komputasi edge dengan mengintegrasikan jaringan dengan kekuatan pemrosesan real-time di edge, sebuah pasar di mana platform Jetson milik NVIDIA juga mendominasi. Kedua perusahaan menangani pemrosesan AI di edge untuk aplikasi seperti IoT dan sistem otonom. 

Pada tahun fiskal 2024, Cisco menghabiskan lebih dari $7,9 miliar untuk memajukan teknologi jaringan, otomatisasi jaringan berbasis AI, komputasi edge, dan solusi keamanan siber. [18]

Cisco telah mengumumkan beberapa inisiatif AI di Timur Tengah, termasuk kolaborasi dengan G42 dan aliansi HUMAIN di Arab Saudi untuk membangun infrastruktur AI. Upaya ini menunjukkan tujuan Cisco untuk memainkan peran penting dalam pertumbuhan AI di kawasan ini.

Pada tahun 2025, Cisco memperluas kemitraannya dengan NVIDIA untuk menyediakan infrastruktur jaringan pusat data yang mendukung AI. Hasil utamanya adalah “arsitektur terpadu lintas portofolio” yang menggabungkan silikon switch Silicon One dari Cisco dengan Spectrum-X Ethernet dari NVIDIA, memungkinkan switch Cisco untuk berintegrasi langsung ke dalam platform Spectrum-X. 

5. apel  

Didirikan :1976
Pendapatan Tahunan :$29,36 miliar (dari Mac)
Kompetisi :Chip seri A dan seri M

Silikon khusus Apple, termasuk chip M1, M2, dan M3 untuk jajaran Mac-nya, bersaing langsung dengan Nvidia dalam komputasi performa tinggi dan beban kerja AI. Pada tahun 2024, Apple memperkenalkan chip M4, yang dilengkapi Neural Engine tercepat hingga saat ini, yang mampu menjalankan 38 triliun operasi per detik. [19]

Apple juga mengembangkan chip Bionic seri A, yang mengintegrasikan akselerator pembelajaran mesin dan mesin saraf ke dalam iPhone, sehingga memungkinkan pemrosesan AI pada perangkat yang kuat. Chip tercanggih mereka, A18 Pro, dilengkapi mesin saraf 16 inti yang dapat menangani 35 triliun operasi per detik.

Chip Apple Bionic A18 Pro 3nm untuk model iPhone 16 Pro.

CPU 6 inti
GPU 6 inti#AppleEvent #AppleEvent24 #BionicA18Pro pic.twitter.com/1uKkQseltL

— Abhishek Yadav (@yabhishekhd) September 9, 2024

Pada tahun 2023, Apple menjual sekitar 231 juta iPhone, menyumbang 52% dari total pendapatannya. Pada tahun 2024, perusahaan ini menginvestasikan $31,37 miliar dalam penelitian dan pengembangan, naik dari $29,9 miliar pada tahun 2023 dan $26,2 miliar pada tahun 2022, dengan fokus kuat pada AI, machine learning, silikon khusus, dan teknologi augmented reality.

Apple telah bergabung dengan Ultra Accelerator Link Consortium (UALink), yang mengembangkan interkoneksi standar untuk akselerator dan chip AI di cluster pusat data. Tujuan UAlink adalah untuk mengatasi hambatan konektivitas antar akselerator seperti GPU, TPU, dan chip AI khusus, sehingga memungkinkan sekelompok besar chip untuk bekerja sama dalam pod dengan bandwidth tinggi dan latensi rendah. 

4. AMD (Perangkat Mikro Tingkat Lanjut)

GPU AMD Instinct MI355X

Didirikan :1969
Pendapatan Tahunan :$23,7 miliar
Kompetisi :GPU Radeon dan prosesor EPYC di pusat data.

AMD (kependekan dari Advanced Micro Devices) adalah pesaing langsung Nvidia di pasar GPU, pusat data, dan perangkat keras AI. Itu juga merancang silikon khusus untuk konsol seperti Xbox dan PlayStation. 

Seri AMD Radeon bersaing dengan seri GeForce NVIDIA dalam gaming dan GPU profesional. Seri MI-nya, termasuk akselerator MI100 dan MI200, menargetkan pembelajaran mendalam dan beban kerja AI, bersaing dengan GPU Tensor Core Nvidia. 

Selain itu, prosesor EPYC dan GPU Instinct menawarkan kombinasi yang kuat untuk pusat data, khususnya dalam lingkungan komputasi berkinerja tinggi dan komputasi awan. Seri EYPC Milan, khususnya, telah menunjukkan peningkatan kinerja yang substansial, menantang Nvidia dan Intel. [20]

Pangsa pasar AMD telah meningkat dalam beberapa kuartal terakhir. Di pasar desktop, pangsa unit AMD adalah 23,9%, dan bagi hasil adalah 19,2%. Di pasar laptop, unit share AMD sekitar 19%. Namun, mereka hanya menguasai 12% pasar GPU diskrit, dengan NVIDIA memegang pangsa dominan. [21]

Pada tahun 2025, AMD memperkenalkan akselerator Seri Instinct MI350 (MI350X dan MI355X), yang menandai lompatan generasi yang besar. Seri ini memberikan kinerja komputasi AI untuk pelatihan dan HPC sekitar empat kali lipat dibandingkan generasi sebelumnya. 

Ini adalah bagian dari strategi infrastruktur AI AMD yang lebih luas, menawarkan kinerja per watt lebih tinggi, memori lebih besar, dan skalabilitas lebih baik. 

3. Qualcomm

Didirikan :1985
Pendapatan Tahunan :$37,34 miliar
Kompetisi :AI seluler dan sistem mengemudi otonom

Meskipun Qualcomm terkenal karena kepemimpinannya dalam prosesor seluler dan teknologi 5G, Qualcomm telah memperluas jangkauannya ke platform AI dan otomotif, yang secara langsung menantang Nvidia. Chip Snapdragon yang populer mendukung pemrosesan AI pada perangkat seluler dan aplikasi IoT, dengan mesin AI bawaan untuk inferensi pada perangkat

Qualcomm juga telah mengembangkan platform Snapdragon Ride yang menghadirkan solusi bertenaga AI untuk bantuan pengemudi dan mengemudi otonom. Ia memiliki kemitraan dengan produsen mobil seperti General Motors, yang bersaing langsung dengan ekosistem Drive Nvidia. [22]

Saat ini, Qualcomm merupakan perusahaan semikonduktor terbesar ketiga, dengan pangsa pasar semikonduktor global sebesar 5,4%. Ditambah lagi, mereka menguasai hampir 30% pasar chip ponsel pintar. [23]

Selain chip dan teknologi nirkabel seperti 5G, Qualcomm menghasilkan pendapatan dengan melisensikan sebagian dari portofolio kekayaan intelektualnya yang luas. Hal ini mencakup hak paten tertentu yang penting untuk pembuatan produk nirkabel tertentu.  

Pada tahun 2025, perusahaan ini memperkenalkan AI On-Prem Appliance Solution + AI Inference Suite, yang memungkinkan perusahaan/produsen menjalankan beban kerja AI generatif dan visi komputer secara lokal (on-premises) dan bukan di cloud. 

2. Intel 

Didirikan :1968
Pendapatan Tahunan :$53,07 miliar
Kompetisi :CPU, GPU, dan platform mengemudi otonom

Intel merancang dan memproduksi chip komputer, sedangkan sebagian besar pesaingnya (termasuk Nvidia) hanya mengerjakan satu atau yang lain. Ini mengembangkan CPU, GPU, akselerator AI untuk pusat data, dan teknologi kendaraan otonom. 

Lebih khusus lagi, Intel bersaing melalui prosesor Xeon dan akselerator AI seperti prosesor Habana Gaudi2 dan Nervana Neural Network. Platform oneAPI-nya menyediakan model pemrograman terpadu di seluruh CPU dan GPU, bersaing dengan ekosistem CUDA NVIDIA.

Intel memegang pangsa pasar yang signifikan di pasar GPU global. Meskipun Nvidia menguasai lebih dari 90% pasar GPU yang digunakan di pusat data, Intel mendominasi pasar grafis terintegrasi dengan pangsa pasar 68%. [24]

Intel juga bersaing dengan Nvidia dalam mengemudi otonom melalui anak perusahaannya Mobileye. Chip EyeQ Mobileye digunakan dalam sistem bantuan pengemudi tingkat lanjut (ADAS). Chip ini memanfaatkan sensor kamera tunggal untuk menyediakan fitur ADAS, seperti cruise control adaptif, bantuan kemacetan lalu lintas, bantuan menjaga jalur, peringatan tabrakan ke depan, dan pengereman darurat otomatis. Lebih dari 50 produsen mobil memasukkan chip EyeQ ke dalam teknologi mengemudi berbantuan mereka. [25]

Berdasarkan hasil pengujian benchmark, prosesor Intel memberi daya pada hampir 71% CPU laptop, sedangkan prosesor AMD menyumbang 21% CPU laptop yang terdeteksi melalui pengujian. 

Intel baru-baru ini menghadapi tantangan keuangan besar akibat meningkatnya persaingan, pergeseran pasar, dan masalah internal. Pendapatan tahunannya turun 20% pada tahun 2022 dan 14% lagi pada tahun 2023. Pada tahun fiskal 2025, pendapatan turun lebih jauh menjadi $53 miliar. Untuk memulihkannya, Intel berfokus pada strategi jangka panjang seperti meningkatkan investasi penelitian dan pengembangan dan memperluas produksi chip dalam negeri. 

1. TSMC (Perusahaan Manufaktur Semikonduktor Taiwan)

Didirikan :1987
Pendapatan Tahunan :$104,4 miliar+
Kompetisi :Produsen chip yang mendukung AI

TSMC beroperasi di berbagai bagian rantai pasokan semikonduktor. Berbeda dengan Nvidia yang mendesain chip, TSMC memproduksinya. Perusahaan ini bersaing secara tidak langsung dengan NVIDIA dalam memengaruhi pengembangan dan penerapan teknologi semikonduktor mutakhir.

TSMC adalah pabrik pengecoran semikonduktor murni terbesar di dunia, yang memproduksi chip untuk berbagai raksasa teknologi, termasuk Apple, Qualcomm, AMD, dan Nvidia sendiri. Ia berspesialisasi dalam node tingkat lanjut seperti 5nm dan 4nm, dan sekarang beralih ke produksi 3nm dan 2nm. Klien TSMC menggunakan node canggihnya untuk bersaing langsung dengan produk Nvidia.  

Perusahaan ini memegang hampir 53% pangsa pasar manufaktur semikonduktor global. Ini adalah produsen andalan untuk chip canggih, terutama pada 7 nm dan di bawahnya. Pada tahun 2023, TSMC mengirimkan 12 juta wafer setara 12 inci, dengan chip 7nm dan lebih kecil menyumbang 58% dari total pendapatan wafer perusahaan. Pada tahun 2024, mereka mengirimkan 12,9 juta wafer setara 12 inci. [26]

TSMC kini secara agresif mendorong teknologi proses 2 nm (“N2”) ke dalam produksi massal. Perusahaan telah mengungkapkan bahwa kepadatan cacat node N2 (D0) lebih rendah dibandingkan node sebelumnya pada tahap pengembangan yang sebanding, yang menunjukkan peningkatan hasil yang lebih cepat dan kematangan proses yang lebih kuat meskipun ada peralihan ke transistor nanosheet gate-all-around.

Baca Selengkapnya

Sumber yang Dikutip dan Referensi Tambahan

  1. Agam Shah, Nvidia mengirimkan 3,76 juta GPU pusat data pada tahun 2023, HPCWire
  2. Siaran Pers, Nvidia akan mengakuisisi Mellanox senilai $6,9 miliar, Nvidia
  3. Laporan, analisis pasar layanan IBM Watson, Facts.mr
  4. Penelitian Quantum, Perangkat keras dan perangkat lunak untuk era utilitas kuantum, IBM
  5. Wawasan Utama, Marvell Technology memiliki total 16347 paten secara global, GreyB
  6. Laporan Q3 2024, Synopsys memposting hasil keuangan untuk kuartal ketiga tahun fiskal 2024, Synopsys
  7. Produk, prosesor AWS Graviton, Amazon
  8. Produk, akselerator AWS Inferentia, Amazon
  9. Produk, AWS Trainium untuk pembelajaran mendalam dan pelatihan AI generatif, Amazon
  10. Hanguang 800 NPU, solusi inferensi AI untuk pusat data, Alibaba Group
  11. Blog, Alibaba Cloud memperkenalkan platform pengembangan chip, Alibaba Cloud 
  12. Compute, Mengumumkan Trillium, Google Cloud TPU generasi keenam, Google Cloud
  13. Ikhtisar Perusahaan, pengeluaran Litbang Alfabet, Tren Makro
  14. Jacob Feldgoise, chip AI Huawei menguji kontrol ekspor AS, CSET
  15. Barry Elad, statistik Huawei berdasarkan pendapatan dan segmen bisnis, Gadget Paling Keren
  16. Teknologi &Telekomunikasi, bagi hasil produsen DRAM di seluruh dunia, Statista
  17. Teknologi &Telekomunikasi, Pangsa pasar vendor infrastruktur jaringan perusahaan di seluruh dunia, Statista
  18. Ikhtisar Perusahaan, biaya Litbang Cisco, Macrotrends
  19. Siaran Pers, Apple perkenalkan chip M4, Apple
  20. Prosesor AMD Milan, Node Milan dipasang di lantai komputer gedung NAS utama, NASA
  21. Anton Shilov, AMD mengambil pangsa pasar CPU dari Intel di desktop dan server, Tom’sHardware
  22. Catatan Pers, General Motors dan Qualcomm memperpanjang hubungan jangka panjang, Qualcomm
  23. Teknologi &Telekomunikasi, pangsa pendapatan pasar semikonduktor Qualcomm di seluruh dunia, Statista
  24. Timothy Fries, Bisakah Intel dan AMD bersaing dengan Nvidia?, Berinvestasi
  25. EyeQ, SoC untuk aplikasi otomotif, Mobileye
  26. Laporan Tahunan 2023, Surat kepada pemegang saham dan ikhtisar keuangan, TSMC

Teknologi Industri

  1. Keypad di layar dengan PLCnext Engineer eHMI
  2. Lembar Data MCP6004 – Sekilas Tentang Op-Amp Quad Daya Rendah 
  3. Bagaimana Cara Membuat Rangkaian Tripler Tegangan?
  4. Solusi Teknologi Industri Canggih untuk Pemeliharaan Prediktif
  5. Kisah Sukses:Strategi untuk Pertumbuhan Ambisius
  6. 6 Pertimbangan Teratas untuk Manajemen Pemeliharaan Aset Rumah Sakit
  7. Pertempuran Status Pekerjaan Pengemudi Truk Independen Upah, Menunggu Keputusan Pengadilan Tinggi
  8. Baterai 2600mAh:Bekerja, Spesifikasi, Sirkuit Aplikasi, dan Pengetahuan Berguna Lainnya
  9. Apakah Saatnya Merangkul Pemesinan Berperforma Tinggi?
  10. Jangan Mengorbankan Keamanan untuk Pengiriman Cepat