Nhu cầu giải mã /AI chip duy trì mạnh mẽ giá hiện tại của TSMC
Nhu cầu giải mã /AI chip duy trì mạnh mẽ giá hiện tại của TSMC
Doanh thu vào tháng 10 tăng 34.8% theo tháng, tăng 15.7% theo năm, một mức cao nhất trong lịch sử. Doanh thu trong 10 tháng đầu giảm 3.7% một năm. Dựa trên các mục tiêu dự báo trước của TSMC cho 4 quý, dự đoán doanh thu giá trị bằng đô la trong 4 quý năm 2023 khoảng 18.8 tỷ đô la đến 19.6 tỷ đô la, lợi nhuận brut giảm 1.8% đến 52.5% trung bình, lợi nhuận kinh doanh 4 quý dự đoán 39.5% đến 41.5%. Dựa trên tỷ giá hối đoái 32 đô la mỹ cho 1 đô la mỹ, doanh thu của quý 4 sẽ giảm từ 601.6 đến 607.2 tỉ đô la mỹ, tăng trưởng từ 9 đến 13% so với quý 3. Trong hai tháng còn lại, TSMC thu nhập trung bình 179.2 tỉ tw có thể đạt được mục tiêu dự báo.
TPM dự đoán, tính theo đô la, thu nhập của năm 2023 sẽ là $68.474-69.274 triệu đô la, giảm từ 8.7% đến 9.8% một năm, hơn một chút so với mức suy thoái dự kiến là 10%. Dự đoán thị trường TSMC thu nhập cả năm nay giảm khoảng 3.6% so với năm ngoái, nhiều hơn là ban quản lý dự đoán. Chủ tịch của TSMC, nhà wei cho biết TSMC đã quan sát thấy dấu hiệu đầu tiên của sự ổn định nhu cầu trên thị trường PC, điện thoại thông minh. Hàng tồn kho sẽ phát triển lại vào năm 2024 sau khi điều chỉnh mùa 4.
Với nhu cầu tăng của các nhà sản xuất hạ nguồn cho 3 nanomet chip trong năm tới, giá cao hơn 3 nanomet chip bán hàng và bán hàng tỷ lệ sẽ tăng trưởng cùng nhau, kéo sự tăng trưởng hiệu suất. Bên cạnh đó, nhu cầu của các nhà sản xuất chip AI về công nghệ gói cao cấp CoWoS sẽ tiếp tục tăng mạnh trong vài năm tới. Bloomberg dự đoán rằng TPM sẽ tăng trưởng lợi nhuận 18% vào năm 2024 và 22% vào năm 2025. Hiện nay PE (tỷ lệ lợi nhuận) khoảng 15 lần, so với mức bình thường trong lịch sử PE 18 lần, theo tiêu chuẩn của tăng lợi nhuận và phát triển doanh nghiệp trong hai năm tới, cung cấp cho TPM 25 lần PE không phải là quá nhiều. Do đó, các nhà đầu tư có thể xây dựng các vị trí của TSMC dần dần ở mức giá hiện tại, các nhà đầu tư có thể xem xét việc giữ lâu dài cho đến khi tỷ lệ lợi nhuận trên 25 lần.
(tác giả là nhà phân tích chứng khoán yonglong, người được ủy ban chứng khoán, không có cổ phần nói trên)
Huida new AI chip asustek, hon hai thêm năng lượng
AI chip đầu tiên của huida (NVIDIA) 13 thông báo, ra mắt sản phẩm AI mới "HGX H200", chủ yếu là công suất cao và rộng hơn, tính toán tốt hơn, bắt đầu vận chuyển vào mùa thứ hai của năm tới. Pháp luật nhìn thấy, huida sản phẩm mới có thể tăng cường thị trường mua sắm, thêm năng lượng cho các đối tác của asustek, kỹ thuật gia, guangda nhóm, weidong group, hon hai.
Huida nhấn mạnh rằng H200 là người đầu tiên cung cấp bộ nhớ rộng tần số cao mới nhất của ngành công nghiệp (HBM) "HBM3e" kỹ thuật của bộ xử lý đồ họa (GPU), với tốc độ 4.8 terabyte/giây cung cấp 141 gigabyte bộ nhớ, so sánh với thế hệ trước của sản phẩm A100, công suất gần gấp đôi, tăng 2.4 lần chiều rộng, có thể được triển khai trong tất cả các loại trung tâm dữ liệu, Bao gồm cả địa phương, đám mây, hỗn hợp và môi trường rìa.
Huida nghĩ rằng H200 sẽ dẫn đến một bước nhảy vọt hiệu quả cao hơn, tăng gấp đôi tốc độ suy luận trên mô hình ngôn ngữ lớn 70 tỉ thông số như Llama 2 so với sản phẩm H100 trước đó.
Huida hiện đang ở vị trí ưu việt trên thị trường AI chip, đã phát hành các sản phẩm như A100, H100, L40S và khác để giành thị trường, H200 là tác phẩm mới nhất. Huhda cho thấy HGX H200 được trang bị với H200 Tensor Core GPU, cùng với bộ nhớ tiên tiến, có thể xử lý một lượng lớn dữ liệu cho công việc của AI sinh ra với hiệu quả cao (HPC).
Tổng giám đốc hwang ren-hoon đã đề cập đến việc các công ty trên khắp thế giới đang chuyển từ tính tổng quát sang tính gia tốc và tạo ra al. Huida đã chỉ ra rằng hệ sinh thái máy chủ của các đối tác, bao gồm asustek, kỹ thuật gia, nhóm của quảng châu, wanda, weizheng, mỹ Kim, điện tử bảo, huy, dell, lenovo, hongbai, Eviden, tất cả có thể sử dụng một thay thế trực tiếp dựa trên H200 để cập nhật hệ thống H100.
Trong khi đó, amazon, Google Cloud, Microsoft Azure và Oracle Cloud cơ sở hạ tầng cũng sẽ là những nhà cung cấp dịch vụ đám mây đầu tiên được triển khai dựa trên các cá nhân điều hành H200.
Huhda nói rằng H200 phần mềm và phần cứng đều tương thích với hệ thống HGX 100, và có thể được sử dụng cùng với GH200 Grace Hopper siêu chip được ra mắt vào tháng 8 này, sử dụng HBM3e. Bao gồm asuk, kỹ thuật gia, yongsheng điện tử, hongbai và khác sẽ bắt đầu vận chuyển vào cuối năm nay với các máy chủ siêu chip.
Mua thực phẩm tại Seoul đắt hơn so với New York là sự khác biệt lớn nhất