Ít hơn 50% số người được hỏi có Công cụ kiểm tra bảo mật API

Lừa đảo, cấu hình sai và các bản vá bị thiếu là mối quan tâm hàng đầu của các nhà lãnh đạo bảo mật, nhưng họ cũng nói rằng các tổ chức của họ đang để các công cụ quan sát rỉ sét.

Hình ảnh: adam121/Adobe Stock

Công ty cung cấp nội dung, bảo mật và dịch vụ đám mây Akamai, hợp tác với công ty đào tạo an ninh mạng SANS Institute của Hoa Kỳ, đã công bố vào thứ Ba kết quả của một nghiên cứu mới xem xét các rủi ro bảo mật đáng lo ngại nhất liên quan đến API. Khảo sát SANS năm 2023 về Bảo mật API cho thấy rủi ro hàng đầu là các cuộc tấn công lừa đảo.

Ngoài ra, cuộc khảo sát toàn cầu năm 2023, đã thăm dò ý kiến ​​của 231 chuyên gia bảo mật ứng dụng, cho thấy rằng chưa đến 50% số người được hỏi có các công cụ kiểm tra bảo mật API và chỉ 29% có các công cụ khám phá API. Nó cũng cho thấy rằng chỉ 29% số người được hỏi sử dụng các biện pháp kiểm soát bảo mật API đã được bao gồm trong DDoS và các dịch vụ cân bằng tải.

Chuyển đến:

Sáu rủi ro bảo mật API hàng đầu

Khi được hỏi những gì họ coi là rủi ro bảo mật API hàng đầu, những người được hỏi thường nói:

  1. Lừa đảo để lấy thông tin xác thực có thể tái sử dụng (38,3%).
  2. Những kẻ tấn công khai thác các bản vá còn thiếu (24%).
  3. Kẻ tấn công khai thác các ứng dụng/API dễ bị tấn công (12%).
  4. Quản trị viên hệ thống cấu hình sai máy chủ/dịch vụ (12%)
  5. Người dùng vô tình tiết lộ thông tin nhạy cảm/được bảo mật (9,1%).
  6. Từ chối dịch vụ (2,3%) (Hình A).

Hình A

Những rủi ro API hàng đầu mà những người trả lời khảo sát của Akamai đã báo cáo. Ảnh: Akamai

Sự gia tăng API làm cho các thách thức bảo mật trở nên phức tạp hơn

Akamai đã báo cáo vào đầu năm nay rằng 2022 đã phá kỷ lục về các cuộc tấn công giao diện lập trình ứng dụng và ứng dụng. Một phần của vấn đề là số lượng lớn các API được các tổ chức sử dụng, đây là một vấn đề rất phù hợp với nhóm rủi ro “bạn không biết những gì bạn không biết”.

John Pescatore, giám đốc phụ trách các xu hướng bảo mật mới nổi tại SANS và là tác giả của nghiên cứu năm 2023, đã chỉ ra rằng sự phổ biến của các API là biểu tượng cho thấy mức độ phức tạp là kẻ thù của bảo mật. Ông cũng giải thích bản chất của các ứng dụng phân tán làm tăng bề mặt mối đe dọa cho những kẻ tấn công và khả năng các lỗ hổng là một phần của mã sản xuất.

Trong nghiên cứu mới, Akamai trích dẫn một báo cáo của 451 Research cho biết trung bình một doanh nghiệp có hơn 15.000 API đang được sử dụng. Để hiểu rõ về số lượng các cuộc tấn công, Akamai đầu năm nay đã báo cáo rằng vào một ngày, ngày 8 tháng 10 năm 2022, đã có 161 triệu cuộc tấn công API trên toàn thế giới.

XEM: Các C-suite coi bảo mật API là mối quan tâm hàng đầu (TechRepublic)

Theo báo cáo, những người trả lời khảo sát cho biết họ dự định khắc phục các lỗ hổng bảo mật API trong tương lai với:

  • Cổng bảo mật web (14%).
  • Các tính năng bảo mật API trong mạng phân phối nội dung/cân bằng tải (13%).
  • Tường lửa ứng dụng web (13%).
  • Thử nghiệm bảo mật ứng dụng động (13%) (Hình B).

Hình B

Các công nghệ/công cụ mà những người tham gia khảo sát cho biết họ dự định triển khai trong hai năm tới. Ảnh: Akamai

Rủi ro zero-day nhận được quá nhiều sự tin cậy, cấu hình sai không đủ

Theo Rupesh Chokshi, tổng giám đốc bảo mật ứng dụng tại Akamai, nghiên cứu của Akamai cho thấy rằng những người được hỏi đang coi nhẹ rủi ro của các ứng dụng bị định cấu hình sai và quá coi trọng rủi ro zero-day.

“Kế hoạch bảo mật API của một tổ chức nên bao gồm việc xây dựng các API bảo mật và định cấu hình ứng dụng một cách chính xác. Đồng thời, các tổ chức nên hiểu rủi ro zero-day, chẳng hạn như cách API trở nên dễ bị tổn thương và có nguy cơ bị khai thác. Sự khác biệt này rất quan trọng vì nó cho thấy rằng bảo mật API mạnh mẽ cần mang lại trọng lượng đáng kể cho mọi khía cạnh của vòng đời API; nếu không, các lỗ hổng sẽ bị bỏ sót,” Chokshi nói.

Đóng cửa cho các cấu hình sai của lớp ứng dụng

Ory Segal, giám đốc công nghệ của Palo Alto Networks Prisma Cloud, đồng tình rằng việc cấu hình sai trong các ứng dụng hiện đại, dựa trên đám mây gây ra rủi ro đáng kể mà các tổ chức thường đánh giá thấp.

“Thật không may, nhiều người tập trung sự chú ý của họ vào các rủi ro zero-day và các lỗ hổng đã biết trong các gói phần mềm mã nguồn mở (nghĩa là các lỗ hổng phổ biến và khả năng lộ diện). Tuy nhiên, số liệu thống kê và thực tế cho thấy rằng những kẻ tấn công có nhiều khả năng khai thác các cấu hình sai của lớp ứng dụng, khiến các tổ chức gặp rủi ro đáng kể và các vi phạm dữ liệu tiềm ẩn — chỉ cần nhìn vào số vụ vi phạm gần đây liên quan đến các bộ chứa lưu trữ đám mây mở công khai.”

Trong số các khuyến nghị của Segal:

  • Để đẩy nhanh việc quản lý cấu hình, cơ sở hạ tầng dưới dạng quét mã có thể mang lại sự nhất quán trong cấu hình và giảm lỗi của con người.
  • Cải thiện khả năng quan sát API là điều cần thiết. Điều này có thể đạt được bằng cách thực hiện ghi nhật ký và giám sát mạnh mẽ.
  • Nhật ký chi tiết, bao gồm lệnh gọi API, thời gian phản hồi và thông báo lỗi, có thể cung cấp thông tin chi tiết vô giá về hiệu suất và tính bảo mật của API.
  • Phát hiện bất thường tự động có thể hỗ trợ xác định các hoạt động bất thường cho thấy một cuộc tấn công tiềm ẩn.
  • Để bảo mật API toàn diện hơn, nên áp dụng nguyên tắc đặc quyền tối thiểu, chỉ cho phép mỗi người dùng có mức truy cập tối thiểu cần thiết để thực hiện tác vụ của họ.
  • Kiểm tra thường xuyên và thử nghiệm tự động đối với các sự cố bảo mật phổ biến, chẳng hạn như các cuộc tấn công dựa trên phương pháp tiêm, có thể giúp đảm bảo tính bảo mật liên tục của API.

Vệ sinh API đúng cách: Hàng tồn kho, bản vá, đánh giá mối đe dọa

Pescatore đã viết rằng kế hoạch bảo mật API của một tổ chức nên bao gồm:

  • Kiểm kê các API đang sử dụng và các quy trình sử dụng các API đó.
  • Đánh giá lỗ hổng của các API đang sử dụng.
  • Đánh giá mối đe dọa của các cuộc tấn công đang hoạt động khai thác các lỗ hổng đó.
  • Giảm thiểu rủi ro dựa trên các lỗ hổng API quan trọng.

62% số người được hỏi trong cuộc khảo sát cho biết họ sử dụng tường lửa ứng dụng web như một phần của việc giảm thiểu rủi ro API và 79% số người tham gia khảo sát cho biết đã đào tạo nhân viên phát triển về bảo mật ứng dụng. Ngoài ra, 57% số người được hỏi đã báo cáo độ chính xác của khoảng không quảng cáo API từ 25% đến 75%.

XEM: Báo cáo Gigamon tỏa sáng khả năng quan sát sâu (TechRepublic)

Pescatore viết: “Các biện pháp kiểm soát vệ sinh bảo mật như xác thực mạnh, kiểm kê nội dung, quản lý lỗ hổng và kiểm soát thay đổi cần giải quyết các vấn đề bảo mật API. “Việc ngăn chặn và phát hiện cần phải được nâng cấp để đối phó với các cuộc tấn công tập trung vào API và các dịch vụ cơ sở hạ tầng (chẳng hạn như mạng phân phối nội dung và lọc từ chối dịch vụ) cũng cần được đưa vào hoạt động.”

Các công ty AI đang tìm kiếm dữ liệu do AI tạo ra để đào tạo đệ quy

Có vẻ như các công ty AI bao gồm Microsoft, OpenAI và Cohere đang làm mọi thứ có thể để tìm dữ liệu tổng hợp nhằm đào tạo các sản phẩm AI của họ. Trích dẫn tính khả dụng hạn chế của dữ liệu “hữu cơ” do con người tạo ra trên mạng toàn cầu, các công ty này nhắm đến việc sử dụng dữ liệu (tổng hợp) do AI tạo ra trong một loại vòng lặp vô hạn, nơi đào tạo đạt được trên dữ liệu đã được tạo ra một cách tổng quát.

Aidan Gomez, giám đốc điều hành của công ty khởi nghiệp LLM trị giá 2 tỷ đô la Cohere cho biết: “Nếu bạn có thể lấy tất cả dữ liệu mình cần từ trang web thì điều đó thật tuyệt vời. “Trên thực tế, web quá ồn ào và lộn xộn nên nó không thực sự đại diện cho dữ liệu mà bạn muốn. Web không làm mọi thứ chúng ta cần.”

Và cũng có vấn đề về chi phí, vì dữ liệu do con người tạo ra, theo Gomez, là “cực kỳ tốn kém”. Điều này đã dẫn đến việc thành lập một số công ty “dữ liệu tổng hợp”, chẳng hạn như Gretel.ai, chuyên sản xuất các bộ dữ liệu tổng hợp sau đó được bán cho mục đích đào tạo.

Vấn đề về nguồn gốc và tính sẵn có của dữ liệu là một trong những yếu tố hạn chế lớn nhất trong kỷ nguyên AI hiện tại của chúng ta. Ngày nay, có những rủi ro thực sự trong việc đào tạo các mạng AI với dữ liệu tổng hợp đã được chính các AI “nhai” và tạo ra. Thứ nhất, có vấn đề về sự thiếu sót phức tạp trong dữ liệu huấn luyện cơ sở: nếu tập dữ liệu huấn luyện ban đầu, không tổng hợp đã bị sai lệch, thì những sai lệch tương tự đó sẽ được đưa vào, tiêu hóa và khuếch đại trong các lần lặp lại huấn luyện tiếp theo, làm tăng mức độ liên quan của nó.

Nhưng một vấn đề khác, có lẽ còn nghiêm trọng hơn nhiều bắt nguồn từ một giới hạn mới được phát hiện gần đây: chất lượng đầu ra xuống cấp nghiêm trọng sau năm vòng đào tạo về dữ liệu tổng hợp do AI tạo ra. Liệu điều kiện “MAD” này có đưa ra giới hạn mềm hay cứng đối với đào tạo AI hay không có vẻ như là một câu hỏi trọng tâm về ý định đào tạo đệ quy mạng AI của Microsoft và OpenAI. Tuy nhiên, đây là một không gian có thể sẽ chứng kiến ​​​​một loạt các nghiên cứu; Ví dụ: Microsoft Research đã xuất bản các bài báo về các truyện ngắn được tạo đệ quy (có nghĩa là một mô hình được đào tạo dựa trên các câu chuyện được tạo bởi một mô hình khác) và mạng AI mã hóa được đào tạo về tài liệu do AI tạo xung quanh lập trình Python. Việc xác minh rủi ro suy thoái dữ liệu trong các mô hình này và các mô hình có kích thước lớn hơn (chẳng hạn như Llama 2 có tham số 70B, được Meta phát hành gần đây thành mã nguồn mở) sẽ là chìa khóa để biết AI phát triển bao xa (và nhanh như thế nào) trong tương lai gần.

Với việc các công ty hướng đến AI đang đòi hỏi ngày càng nhiều dữ liệu, điều hợp lý là họ sẽ cố gắng tạo đệ quy các bộ dữ liệu chất lượng cao. Điều này có thể được thực hiện theo nhiều cách, nhưng có lẽ cách có khả năng thành công cao hơn là chỉ cần để hai mạng AI tương tác với nhau, trong đó một mạng đóng vai gia sư và mạng kia đóng vai học sinh. Tuy nhiên, sự can thiệp của con người sẽ (và sẽ luôn luôn) là cần thiết để loại bỏ các điểm dữ liệu chất lượng thấp hơn và kiểm tra “ảo giác” (AI khẳng định không trung thực).

Có một số trở ngại trên con đường đến với giấc mơ công nghệ về một AI tự phát triển, tự học; các mô hình có thể thảo luận nội bộ, khám phá nội bộ và tạo ra kiến ​​thức mới không chỉ đơn thuần là pha trộn và kết hợp (mặc dù xét cho cùng thì đó cũng là một trong những đặc điểm nổi bật của đầu ra sáng tạo).

Tất nhiên, chúng ta phải ghi nhớ rằng không phải giấc mơ nào cũng dễ chịu. Chúng ta đã gặp khó khăn khi đối phó với những cơn ác mộng do con người gây ra; không thể biết được “cơn ác mộng” của máy móc có thể ảnh hưởng đến mức nào.

Hoạt động GPU ‘mới’ giả ở Trung Quốc dẫn đến 22 vụ bắt giữ

Cảnh sát Trung Quốc gần đây đã đột kích vào một đường dây card đồ họa có hành vi lừa đảo, bắt giữ 22 người và thu giữ hàng hóa trị giá hàng triệu đô la. Sở cảnh sát Bincheng đã đăng thông tin chi tiết và hình ảnh về cuộc đột kích trên mạng xã hội, như ITHome và VideoCardz đã phát hiện ra. Bảy trong số 22 người đó đã bị giam giữ. Báo cáo của cảnh sát cho biết giá trị của các card đồ họa và hàng hóa liên quan bị thu giữ vượt quá 15 triệu Nhân dân tệ Trung Quốc (hơn 2 triệu USD).

Hoạt động này chuyên về thu gom các card đồ họa cũ, đã qua sử dụng, sau đó trải qua một quy trình bao gồm làm sạch và đóng gói lại để cuối cùng bán lại chúng như mới.

Nhóm này đã có thủ đoạn hoạt động tương đối tinh vi. Nó có những người chuyên mua card đồ họa đã qua sử dụng. Sau khi nhận được thẻ, sẽ có người dọn dẹp và kiểm tra các bộ phận. Xếp hàng tiếp theo là những người chịu trách nhiệm đóng gói lại và dán nhãn cho các thẻ cũ. Xếp hàng cuối cùng là đội bán hàng, phân phối hàng hóa.

Nhóm có thể có khả năng hợp pháp nếu không có bước đóng gói lại và dán nhãn lại có chủ ý gây hiểu lầm trong quy trình sản xuất của họ. Điều đó chắc chắn sẽ có tác động lớn đến lợi nhuận tiềm năng của họ, nhưng bây giờ họ sẽ không phải ngồi tù.

Việc mua card đồ họa đã qua sử dụng trở nên rủi ro hơn sau cơn sốt tiền điện tử. Nhiều card đồ họa tương đối hiện đại và mạnh mẽ đang được lưu hành có thể đã dành thời gian để cố gắng khai thác. Có vẻ như đã lâu rồi, nhưng việc khai thác Ethereum vẫn có thể thực hiện được cách đây chưa đầy một năm

Trước đây chúng tôi đã báo cáo về việc các card đồ họa khai thác đã qua sử dụng dễ gặp sự cố hơn nhiều so với hàng mới. Ngay cả những người bán lại dường như cũng không tôn trọng chúng, đôi khi giặt chúng bằng máy bay phản lực hoặc bán chúng theo kg trên đường phố. Điều quan trọng không kém là với nhiều mặt hàng đã qua sử dụng không được nhà sản xuất hỗ trợ, người mua sẽ không nhận được bảo hành từ thương hiệu liên kết hoặc như đã hứa trên bao bì được đổi mới.

$99 cho SSD 2TB WD Black SN850X siêu nhanh: Ưu đãi thực sự

Chúng tôi không tham gia bất kỳ sự kiện bán hàng lớn nào, nhưng các giao dịch về dung lượng lưu trữ vẫn khá ổn định. Đã có một chút cuộc chiến lưu trữ đang diễn ra giữa tất cả những người chơi chính để thay đổi nguồn cung khi SSD Gen 5 lọc ra thị trường và trở nên phổ biến hơn. Tôi thích cạnh tranh vì nó thường luôn mang lại kết quả tốt nhất cho chúng tôi – người tiêu dùng – vì vậy thật tuyệt khi làm nổi bật các ưu đãi như SSD WD Black SN850X 2TB này với giá 99 đô la. Đây không phải là mức giá rẻ nhất từng có, nhưng vẫn là một mức giá rất tốt cho một trong những ổ SSD tốt nhất hiện có.

Biến thể năm 2022 của Asus ROG Zephyrus 15 được cung cấp với giá chỉ 999 USD. Đây là một cỗ máy chuyên chơi game sử dụng CPU tám nhân AMD Ryzen 9 6900HS và card đồ họa RTX 3060 phổ biến.

Nếu bạn đang tìm kiếm một chiếc máy tính xách tay chơi game nhỏ hơn, MSI Stealth 14 hiện được giảm xuống còn 1.299 USD và trang bị phần cứng mới nhất như bộ xử lý Intel Core i7-13620H thế hệ thứ 13 và GPU Nvidia RTX 4060. Tất cả nằm trong một khung máy nhỏ gọn với màn hình 14 inch.

Xem bên dưới để biết thêm ưu đãi lớn.

TL;DR — Ưu đãi tốt nhất hôm nay

Giao dịch tốt nhất hiện nay một cách chi tiết

Tìm kiếm nhiều giao dịch?

Quay lại SSD

Tải thêm ưu đãi

TSMC hoãn sản xuất hàng loạt tại Arizona Fab đến năm 2025

TSMC hôm thứ Năm tuyên bố rằng họ sẽ phải trì hoãn việc bắt đầu sản xuất quy mô lớn tại Fab 21 ở Arizona đến năm 2025. Sự chậm trễ này xảy ra do không thể thiết lập kịp thời tất cả các công cụ phòng sạch cần thiết, phần lớn là do thiếu nhân viên có trình độ. Để khắc phục điều này, TSMC đang triển khai khoảng 500 nhân viên Đài Loan có kinh nghiệm thực tế trong việc cài đặt các công cụ fab.

“Mặc dù chúng tôi đang nỗ lực cải thiện tình hình, bao gồm cử các kỹ thuật viên giàu kinh nghiệm từ Đài Loan sang đào tạo công nhân kỹ năng địa phương trong một thời gian ngắn, nhưng chúng tôi hy vọng lịch sản xuất của công nghệ xử lý N4 sẽ được đẩy lùi sang năm 2025”, Mark Liu, Chủ tịch TSMC, cho biết trong cuộc gọi thu nhập của công ty với các nhà phân tích tài chính và nhà đầu tư. “Chúng tôi đang gặp phải một số thách thức nhất định, vì không đủ số lượng công nhân lành nghề có chuyên môn chuyên môn cần thiết để lắp đặt thiết bị trong một cơ sở cấp chất bán dẫn.”

Những rào cản mà TSMC gặp phải đủ nghiêm trọng để xưởng đúc lùi thời gian bắt đầu sản xuất hàng loạt ở Fab 21 giai đoạn 1 từ đầu năm 2024 sang đôi khi vào năm 2025, tương đương với độ trễ khoảng một năm. Công ty vẫn chưa xác định mốc thời gian chính xác khi nào vào năm 2025, họ dự định bắt đầu sản xuất hàng loạt chip ở Arizona.

Vẫn còn phải xem việc trì hoãn ra mắt Fab 21 của TSMC sẽ ảnh hưởng như thế nào đến khách hàng của họ ở Mỹ. Một mặt, công ty chỉ có thể ‘tái định tuyến’ các đơn đặt hàng từ các khách hàng như Apple, AMD và Nvidia đến các nhà sản xuất Đài Loan của mình. Nhưng mặt khác, các nhà máy của nó ở Đài Loan có thể hoạt động hết công suất vào năm 2024. Hơn nữa, các khách hàng như AMD và Nvidia có thể muốn sản xuất một số mặt hàng nhất định cho chính phủ Hoa Kỳ ở Hoa Kỳ và việc trì hoãn chúng một năm có thể là vi phạm hợp đồng.

Quá trình xây dựng Fab 21 giai đoạn 1 của TSMC bắt đầu vào tháng 4 năm 2021 và kết thúc vào khoảng giữa năm 2022, muộn hơn một chút so với kế hoạch ban đầu. Vào tháng 12 năm 2022, TSMC bắt đầu lắp đặt thiết bị của mình. Dựa trên quy trình tiêu chuẩn, việc thiết lập phòng sạch trong một nhà máy thường mất khoảng một năm, đó là lý do tại sao TSMC ban đầu dự đoán rằng nhà máy sẽ đi vào hoạt động vào đầu năm 2024.

Tuy nhiên, lực lượng lao động địa phương không quen với các nhu cầu cụ thể của TSMC đã dẫn đến nhiều sự chậm trễ trong việc thiết lập các công cụ sản xuất tại Fab 21.

Mới tháng trước, TSMC đã xác nhận các cuộc đàm phán đang diễn ra với chính phủ Hoa Kỳ nhằm đảm bảo thị thực không di dân cho các chuyên gia Đài Loan của họ làm việc tại Hoa Kỳ Dựa trên một báo cáo của Nikkei, TSMC sẽ cử khoảng 500 kỹ thuật viên có thể thiết lập các công cụ chế tạo cũng như hệ thống cơ và điện cho các chế tạo chế tạo.

Raspberry Pi Biến Máy Tính Thành Máy Chơi Game Cầm Tay

Có bất cứ điều gì bạn không thể nhồi nhét một quả mâm xôi vào trong? Các nhà sản xuất trong cộng đồng Pi khiến chúng tôi ngạc nhiên với các dự án Raspberry Pi của họ và hôm nay chúng tôi có một dự án khác mà các kệ của chúng tôi trông trống rỗng nếu không có. Nhà sản xuất và nhà phát triển Ren đã chuyển đổi máy tính vẽ đồ thị Texas Instruments T84 cổ điển thành thiết bị cầm tay máy tính chơi game có SBC yêu thích của chúng tôi—Raspberry Pi.

Chúng tôi biết bạn đang nghĩ gì, tại sao lại tạo ra một máy tính chơi game? Ngoài câu trả lời yêu thích của chúng tôi là “Tại sao không?”, Ren làm rõ mục đích là tạo ra thứ gì đó thú vị và di động với đèn flash và sự tinh tế chỉ có ở đèn LED RGB ngọt ngào. Kết quả cuối cùng là chiếc máy tính chơi game đáng yêu này không chỉ có Pi mà còn có Arduino để điều khiển các dải đèn LED.

Ban đầu, anh ấy cân nhắc việc tạo một PCB tùy chỉnh từ đầu chỉ dành cho dự án nhưng đã chọn sử dụng Raspberry Pi 4. Hệ thống này được đặt bên trong T84 và có thể được điều khiển bằng cả bảng điều khiển LCD màn hình cảm ứng cũng như bàn phím cầm tay không dây. Vì nó có sức mạnh của Pi 4 bên trong nên video demo của anh ấy đã cho thấy nó chạy thành công phiên bản Minecraft Pi.

Texas Instruments T84 chủ yếu được sử dụng làm vỏ và các nút không cung cấp bất kỳ đầu vào nào của người dùng. Tuy nhiên, nó vừa vặn với Pi một cách thoải mái cùng với màn hình cảm ứng Waveshare TFT 2,8 inch có độ phân giải 320 x 240. Các dải đèn LED được thêm vào chỉ để mang lại cho nó vẻ ngoài và cảm giác của một thiết bị chơi game hiện đại, ngay cả khi nó chỉ được gắn vào một máy tính vẽ đồ thị.

Raspberry Pi 4 đang chạy Raspberry Pi OS nhưng về mặt lý thuyết, bạn có thể thêm bất kỳ HĐH nào bạn thích, chẳng hạn như Lakka hoặc RetroPie. Theo Ren, nó có thời lượng pin trung bình khoảng hai giờ. Anh ấy đã dành một chút thời gian để trưng bày nó xung quanh trường của mình và xoay sở để đưa nó ra trước bảng điều khiển của Texas Instruments tại một hội chợ địa phương được tổ chức tại trường đại học của anh ấy, trước sự hài lòng của họ.

Nếu bạn muốn tạo lại dự án Raspberry Pi này hoặc muốn xem rõ hơn sản phẩm cuối cùng trông như thế nào, bạn có thể xem video mà anh ấy đã chia sẻ với YouTube để trình bày chi tiết quá trình tạo của nó.

Rò rỉ giá RX 7700 và RX 7800 của AMD

Bây giờ chúng ta đã biết hiệu suất sơ bộ của card đồ họa Radeon RX 7700 và Radeon RX 7800 sắp ra mắt của AMD, chúng ta vẫn còn băn khoăn về giá của chúng. Nếu những con số bị rò rỉ bởi Tất cả_The_Watt!!, những người có xu hướng tiếp cận thông tin phù hợp, chính xác, thì AMD đang xem xét một chiến lược giá khá kỳ lạ. Trong khi chờ đợi, vì các bảng này dường như còn vài tuần nữa mới diễn ra, hãy coi thường thông tin.

Theo “kỳ vọng” của Tất cả_The_Watt!!, giá đề nghị của AMD cho Radeon RX 7700 sẽ là $449. Radeon RX 7800 mạnh hơn sẽ có giá đề xuất là 549 USD.

Xem thêm

Vuốt để cuộn theo chiều ngang
vô giá trị Gián điệp thời gian 3DMark Trung bình ~ Tối đa MSRP
Radeon RX 7700* 15465 $449*
Radeon RX 7800* 18197 $549*
Radeon RX 6800 XT 17098 ~ 24934 $520**
Radeon RX6800 14503 ~ 20239 $450**
Radeon RX 6700 XT 11970 ~ 15087 $330**
GeForce RTX 4070 Ti 20437 ~ 25898 $799
GeForce RTX 4070 16372 ~ 21065 $599
GeForce RTX 4060 Ti 8GB 12836 ~ 15000 $399

*Rò rỉ dữ liệu
** Giá thấp nhất tại Newegg

Dựa trên điểm số 3DMark Time Spy bị rò rỉ gần đây, Radeon RX 7700 của AMD đánh bại RTX 4060 Ti và Radeon RX 6700 XT của Nvidia. Đây chỉ là một điểm chuẩn và chúng tôi không biết sản phẩm hoạt động như thế nào trong các trò chơi khác. Dù sao đi nữa, câu hỏi lớn là liệu phí bảo hiểm $50 so với GeForce RTX 4060 Ti và phí bảo hiểm $119 so với Radeon RX 6700 XT có hợp lý hay không, ít nhất là dựa trên hiệu suất của nó trong 3DMark Time Spy.

Khi nói đến Radeon RX 7800 của AMD (được cho là sẽ bán lẻ với giá 549 đô la), nó không thể đánh bại Radeon RX 6800 của chính AMD có thể được mua với giá 450 đô la hoặc GeForce RTX 4070 của Nvidia, tất nhiên là có giá khởi điểm khoảng 599 đô la. Nếu một người chỉ xem xét RX 7800 so với RTX 4070, thì tất nhiên, việc định giá cái trước thấp hơn cái sau là điều hợp lý. Dù sao đi nữa, Radeon RX 7800 của AMD hứa hẹn sẽ là một bo mạch đồ họa khá nhanh, vì vậy nó có thể sẽ nằm trong danh sách các card đồ họa tốt nhất của chúng tôi.

Hiện tại, MSRP do chuyên gia rò rỉ phần cứng nổi tiếng công bố có lẽ đại diện cho tầm nhìn hiện tại của AMD về vị thế cạnh tranh của Radeon RX 7700 (vì nó nhanh hơn GeForce RTX 4060 Ti, chúng tôi hãy bán nó với giá cao hơn) và Radeon RX 7800 (vì nó chậm hơn GeForce RTX 4070, hãy để chúng tôi bán giảm giá). Quan điểm của AMD liên quan đến vị trí / giá cả sản phẩm của mình, điều này có thể thay đổi trong vài tuần kể từ bây giờ. Điều đó nói rằng, lấy số MSRP bị cáo buộc với một nhúm muối.

AMD dự định sử dụng bộ xử lý đồ họa Navi 32 với tối đa 3840 bộ xử lý dòng (60 đơn vị tính toán) cho cả dòng card đồ họa Radeon RX 7700 và Radeon RX 7800, theo thông tin không chính thức. Hiện tại, cấu hình chính xác của các sản phẩm này vẫn còn nằm trong vòng bí mật vì chúng dự kiến ​​sẽ được ra mắt vào cuối tháng 8.

APU Ryzen 8000 Strix Point ra mắt với 12 nhân Zen 5

Bộ xử lý Zen 4 của AMD chắc chắn là một trong những CPU tốt nhất trên thị trường. Tuy nhiên, nhà sản xuất chip đã chuẩn bị chip Zen 5 thế hệ tiếp theo của mình, bằng chứng là các bản vá Linux gần đây và rò rỉ mới này về một phần được cho là của Ryzen 8000 (Strix Point).

Chính thức, chúng tôi biết rằng Strix Point sẽ ra mắt vào năm 2024, có sự kết hợp giữa lõi Zen 5 và đồ họa tích hợp RDNA 3.5. Lộ trình máy tính xách tay của AMD từ năm ngoái đã chỉ ra một “nút tiên tiến” cho Strix Point, có thể là cùng một nút 4nm cho Phoenix Point hoặc một cái gì đó mới hơn. Giống như các chip di động dòng Ryzen 7040 (Phoenix Point) của AMD, Strix Point cũng sẽ có Công cụ trí tuệ nhân tạo (AIE) tùy ý sử dụng. Một số tin đồn đang nổi xung quanh giới phần cứng rằng Strix Point có thể có hai biến thể: một biến thể có thiết kế khuôn nguyên khối và biến thể khác có thiết kế chiplet. Tuy nhiên, chúng tôi chưa thấy bất kỳ bằng chứng nào để xua tan hoặc xác nhận những tin đồn.

Bộ xử lý Ryzen 8000 (thông qua băng ghế dự bị) đã vào cơ sở dữ liệu MilkyWay@home, một nơi phổ biến để tìm chip AMD và Intel chưa phát hành. Căn cứ vào thời gian, nó rõ ràng là một mẫu kỹ thuật. Bộ xử lý hiện thiếu tên bán lẻ và chỉ có mã định danh “100-000000994-03_N”. Chip Strix Point được cho là thuộc dòng sản phẩm Family 26 Model 32 Stepping 0 của AMD. Dòng 25 bao gồm các bộ xử lý Zen 3, Zen 3+ và Zen 4. Theo logic, Family 26 nên dành cho Zen 5.

(Nguồn: Nhóm tin học thiên văn)

MilkyWay@home khác xa so với điểm chuẩn của bộ xử lý, vì vậy chúng tôi không nhận được bất kỳ thông tin có ý nghĩa nào ngoài các thông số kỹ thuật cơ bản. Ví dụ: bộ xử lý Ryzen 8000 cụ thể này có 24 luồng, nghĩa là nó có 12 lõi. Con chip dường như ngụ ý rằng Strix Point đang nhận được một cú hích lõi so với Phoenix Point, có tối đa tám lõi.

Strix Point là một bộ xử lý di động. Tương đương với máy tính để bàn phải là Granite Ridge, cũng sẽ ra mắt vào năm 2024. AMD đã xác nhận trong một webcast gần đây rằng Ryzen 8000, có lõi Zen 5 và đồ họa Navi 3.5, sẽ cắm vào ổ cắm AM5.

AMD chưa chia sẻ ngày chính xác khi nào Strix Point sẽ tung ra thị trường. Tuy nhiên, năm 2024 sẽ là một năm thú vị nữa đối với thị trường di động khi Zen 5 dự kiến ​​sẽ cung cấp năng lượng cho một làn sóng máy tính xách tay chơi game mới.

10 công nghệ mới nổi hàng đầu của Forrester trong năm 2023 và hơn thế nữa

Hình ảnh: Chứng khoán Adobe

Trong một báo cáo mở rộng của Forrester về 10 công nghệ mới nổi hàng đầu năm 2023, không có gì ngạc nhiên khi AI sáng tạo đứng đầu danh sách, tiếp theo là trợ lý tại nơi làm việc tự động và AI đàm thoại.

Ba công nghệ này “… sẵn sàng sớm mang lại lợi tức đầu tư,” mà Forrester định nghĩa là chưa đầy hai năm. Báo cáo cho biết: “AI sáng tạo và AI đàm thoại (thay thế NLP) và trợ lý tại nơi làm việc tự trị (thay thế các tác nhân thông minh) hiện hứa hẹn những kết quả ngắn hạn”.

Chuyển đến:

1. Trí tuệ nhân tạo

Forrester định nghĩa AI tổng quát là một tập hợp các công nghệ và kỹ thuật tận dụng lượng dữ liệu khổng lồ để tạo ra nội dung mới như văn bản, video, hình ảnh, âm thanh và mã để đáp ứng lời nhắc ngôn ngữ tự nhiên hoặc các đầu vào phi mã và phi truyền thống khác.

Theo báo cáo, lợi ích của việc sử dụng AI tổng quát bao gồm cải thiện trải nghiệm kỹ thuật số thông qua tương tác ngôn ngữ tự nhiên, truy xuất kiến ​​thức nhanh chóng, tạo nội dung nhanh hơn và chất lượng nội dung được cải thiện.

Tuy nhiên, cũng có những rủi ro cần lưu ý. AI sáng tạo có xu hướng “… vô nghĩa mạch lạc, các mối đe dọa bảo mật và thế hệ có hại” và “… các công ty không thể nhanh chóng kiểm tra số lượng khả năng mới đang tăng lên nhanh chóng,” báo cáo cho biết.

NHÌN THẤY: Bảng gian lận ChatGPT của TechRepublic

Báo cáo cảnh báo: “Sẽ mất vài năm để giải quyết các vấn đề về quản trị, niềm tin và IP trong các mục đích sử dụng liên quan đến an toàn hoặc hướng tới khách hàng,” báo cáo cảnh báo, mặc dù AI tổng quát sẽ thu được lợi ích trong vòng chưa đầy hai năm.

2. Trợ lý tại nơi làm việc tự chủ

Forrester định nghĩa trợ lý tại nơi làm việc tự trị là “… phần mềm có thể đưa ra quyết định, hành động mà không cần phê duyệt và thực hiện dịch vụ dựa trên môi trường, ngữ cảnh, đầu vào của người dùng và học hỏi để hỗ trợ các mục tiêu tại nơi làm việc.”

Phó chủ tịch của Forrester về các công nghệ mới nổi Brian Hopkins giải thích rằng, so với các tác nhân thông minh, với AWA, “… chúng tôi đang thấy [a] sự kết hợp giữa RPA (tự động hóa quy trình bằng rô-bốt) và các công cụ quy trình kỹ thuật số” và khả năng “… tạo ra một tác nhân phần mềm có khả năng học hỏi khi nó hoạt động và trả lời các truy vấn phức tạp hơn cũng như hành động theo cách không xác định.”

NHÌN THẤY: Bộ tuyển dụng chuyên gia tự động hóa của TechRepublic Premium

Báo cáo cho biết lợi ích của AWA bao gồm giảm chi phí trả lời câu hỏi, giảm sự kém hiệu quả của quy trình và cải thiện dịch vụ khách hàng. Những rủi ro sẽ thách thức trình độ kỹ năng của doanh nghiệp, bao gồm nhu cầu tích hợp các khối xây dựng tự động hóa chính như RPA, hội thoại và quản lý quyết định.

Hopkins rõ ràng rằng năm nay chúng ta đã đạt đến điểm uốn, và chatbot cũng như AWA sẽ “bùng nổ”.

3. AI đàm thoại

Theo báo cáo, các công cụ AI đàm thoại không phải là mới, mặc dù trước đây chúng không hoạt động tốt. Công nghệ này đứng thứ ba trong danh sách vì sự kết hợp giữa các tiến bộ và giảm chi phí cấp phép “… làm cho công nghệ này có khả năng mang lại ROI trong thời gian tới, trong khi vẫn còn nhiều chỗ cho những tiến bộ và đổi mới trong tương lai,” báo cáo lưu ý .

Lợi ích của AI đàm thoại bao gồm tăng doanh số bán hàng, dịch vụ khách hàng tự động, nhân viên tự phục vụ và trải nghiệm mua hàng dễ dàng. Các rủi ro bao gồm các chatbot được thiết kế kém mang lại trải nghiệm kém cho khách hàng và làm xói mòn lòng tin, cũng như các nền tảng không linh hoạt không thể phát triển nhanh chóng để theo kịp tốc độ đổi mới.

NHÌN THẤY: Bảng gian lận Google Bard của TechRepublic

Công nghệ mới nổi khác trong top 10

Làm tròn danh sách công nghệ mới nổi hàng đầu của Forrester là:

4. Nhận dạng kỹ thuật số phi tập trung là một giải pháp và mạng nhận dạng cung cấp thông tin đăng nhập và xác nhận phi tập trung, phân tán, có thể kiểm chứng và hủy bỏ dựa trên sự tin tưởng giữa nhà phát hành, người xác minh và người dùng. Forrester dự đoán nó sẽ mang lại những lợi ích đáng kể trong vòng hai đến năm năm.

5. Trí thông minh cạnh bao gồm phân tích luồng, học máy biên, học máy liên kết và quản lý dữ liệu thời gian thực trên các thiết bị thông minh và máy chủ biên. Forrester dự đoán nó sẽ mang lại những lợi ích đáng kể trong vòng hai đến năm năm.

6. AI có thể giải thích là các kỹ thuật và khả năng của phần mềm để đảm bảo rằng mọi người hiểu cách hệ thống AI đạt được kết quả đầu ra của họ. Forrester dự đoán nó sẽ mang lại những lợi ích đáng kể trong hai đến năm năm tới.

7. TuringBot là phần mềm được hỗ trợ bởi AI giúp tăng cường trí thông minh và khả năng của các nhà phát triển cũng như nhóm của họ trong việc thiết kế, xây dựng, thay đổi, thử nghiệm và tái cấu trúc mã phần mềm cũng như các ứng dụng theo cách tự động và độc lập. Forrester dự đoán nó sẽ mang lại những lợi ích đáng kể trong hai đến năm năm tới.

số 8. Thực tế mở rộng là một công nghệ phủ hình ảnh máy tính lên tầm nhìn của người dùng, với các công nghệ thực tế tăng cường, thực tế hỗn hợp và thực tế ảo được hỗ trợ bởi cùng các công cụ dành cho nhà phát triển, cảm biến và máy ảnh cũng như các công cụ mô phỏng. Forrester dự đoán sẽ mất 5 năm hoặc hơn nữa cho đến khi thực tế mở rộng mang lại giá trị như mong đợi.

9. Web3 là một khái niệm hứa hẹn một World Wide Web không bị chi phối bởi công nghệ lớn hoặc các công ty lâu đời khác như ngân hàng. Forrester dự đoán rằng sẽ mất 5 năm hoặc hơn nữa cho đến khi Web3 mang lại giá trị như mong đợi.

10. Cạnh không tin cậy là một giải pháp kết nối và vận chuyển thông tin kỹ thuật số một cách an toàn bằng cách sử dụng các nguyên tắc truy cập không tin cậy vào và ra khỏi các trang web từ xa bằng cách sử dụng các dịch vụ mạng và bảo mật chủ yếu dựa trên đám mây. Forrester dự đoán sẽ mất 5 năm hoặc hơn nữa cho đến khi lợi thế không tin cậy mang lại giá trị như mong đợi.

Các bước mà các nhà lãnh đạo nên thực hiện liên quan đến công nghệ mới nổi này

Đối với các tổ chức mới bắt đầu xem xét các công nghệ mới nổi này, Hopkins khuyên họ nên phát triển một khuôn khổ để thử nghiệm nhanh chóng để họ có thể hiểu những gì nó có thể làm cho doanh nghiệp của họ và cân nhắc rủi ro so với phần thưởng.

Forrester khuyên các giám đốc điều hành công nghệ “… với các chiến lược quản lý công nghệ hiện đại…” để “thí điểm” AI tổng quát, AWA và AI đàm thoại, sau đó thương mại hóa chúng.

Báo cáo cho biết: “Các công ty chính thống nên bắt đầu đầu tư hoặc tiếp tục đầu tư vào chúng với những kỳ vọng hợp lý để nhanh chóng đạt được những lợi ích có thể đo lường được.

Mặc dù thực tế mở rộng, Web3 và lợi thế không tin cậy sẽ mất ít nhất 5 năm nữa để phát huy hết tiềm năng của chúng, báo cáo khuyên các tổ chức “Đặt chúng vào danh sách theo dõi của bạn, nhưng bạn cần đặt kỳ vọng với những người ủng hộ nhiệt tình hơn trong việc kinh doanh.”

Hopkins cho biết, cạnh không tin cậy kết hợp bảo mật không tin cậy với các loại mạng khác nhau tùy thuộc vào ứng dụng nào đang chạy.

Ông giải thích: “Mạng luôn tách biệt với bảo mật, vì vậy chúng tôi đang chứng kiến ​​sự xuất hiện của các nhà cung cấp bảo mật mua các nhà cung cấp mạng và tích hợp bảo mật vào các khả năng kết nối mạng hoặc ngược lại.

Đây là lý do tại sao phải mất một số năm để các công cụ không tin cậy có sẵn cho các doanh nghiệp mua và triển khai.

“Chúng tôi hơi hoài nghi về Web3. Nó không chắc nó sẽ như thế nào khi lớn lên,” Hopkins nói thêm.

Ông cũng lưu ý rằng các công nghệ mới nổi có xu hướng thay đổi, chỉ ra rằng năm ngoái mọi người đều quá tập trung vào metaverse và năm nay, trọng tâm đó là AI tổng hợp.

“Bạn phải nghĩ vào năm tới, nó có thể là một cái gì đó khác,” Hopkins nói. “Chúng ta đang ở giữa cái mà Forrester đã gọi, trong nhiều năm, là sự tăng tốc, khuôn khổ để phù hợp với tương lai; có thể đối phó với tốc độ thay đổi. Bạn càng chuẩn bị kỹ lưỡng cho điều đó, thì bạn càng có nhiều lợi thế hơn trong tương lai.”

Apple kiểm tra AI Framework và ‘Apple GPT’

Apple được cho là đang tham gia cuộc đua chuột AI. Theo một báo cáo từ BloombergNgười thì thầm về Apple, Mark Gurman, người xây dựng Mac và iPhone đang làm việc trên một khung trí tuệ nhân tạo và chatbot của riêng mình.

Các nguồn ẩn danh của Gurman mô tả chi tiết một phần quan trọng của công nghệ, được đặt tên là “Ajax”, đóng vai trò là nền tảng để xây dựng các mô hình ngôn ngữ lớn giống như các mô hình cung cấp năng lượng cho ChatGPT. Sử dụng Ajax, một nhóm kỹ sư nhỏ tại Apple cũng đã xây dựng một chatbot mà một số người trong nội bộ được cho là gọi là “Apple GPT”. Ajax được cho là đã được phát triển vào năm 2022 để “thống nhất quá trình phát triển máy học tại Apple”, trong khi chatbot được sử dụng với các nhóm nội bộ dường như là một sự phát triển gần đây hơn. Ajax được xây dựng trên Google Jax và chạy trên Google Cloud, Bloomberg báo cáo.

Apple đã im lặng một cách đáng chú ý về trí tuệ nhân tạo. Công ty hoàn toàn không đề cập đến AI tại Hội nghị các nhà phát triển toàn cầu, thay vào đó đề cập đến những tiến bộ trong học máy. Nhiều người dùng đã lưu ý rằng Siri, trợ lý giọng nói của Apple được phát hành lần đầu tiên vào năm 2011, không tiên tiến như các đối thủ như Amazon Alexa hay Google Assistant.

BloombergBáo cáo của Apple cho thấy Apple đang lo lắng về việc các công cụ AI tổng quát đã phát triển nhanh như thế nào và lo lắng “về việc bỏ lỡ một sự thay đổi tối quan trọng tiềm năng trong cách thức hoạt động của các thiết bị.” Người đứng đầu bộ phận máy học và AI của Apple, John Giannandera, và phó chủ tịch cấp cao về kỹ thuật phần mềm, Craig Federighi, sẽ phụ trách.

Gurman báo cáo rằng Apple Maps, tìm kiếm và Siri đã thấy một số cải tiến AI dựa trên Ajax. Câu hỏi về cái gọi là “Apple GPT” (chắc chắn không phải là tên cuối cùng) là nó có khả năng xuất hiện như thế nào trong các dự án tiêu dùng.

Hiện tại, chatbot đó, chỉ có sẵn thông qua giao diện web, chỉ được sử dụng nội bộ bởi một nhóm nhỏ và dường như yêu cầu nhân viên phải được cấp trên đóng dấu cao su để có quyền truy cập. Ngoài ra, Apple không cho phép sử dụng đầu ra từ bot cho các dự án hướng tới người tiêu dùng. Tuy nhiên, các nhân viên của Apple rõ ràng đang sử dụng nó để tạo mẫu, tóm tắt văn bản và trả lời các câu hỏi.

Theo các nguồn tin của Gurman, điều mà bot của Apple không làm là bất cứ điều gì mới. Nó tương tự như Bing Chat, ChatGPT và ilk của họ, nhưng không có bất kỳ điểm khác biệt nào.

Không rõ Apple sẽ sử dụng công nghệ AI này ở đâu trong công việc hướng tới người tiêu dùng. Gurman lưu ý rằng Siri là sự lựa chọn rõ ràng, mặc dù Apple đã chỉ ra rằng AI đã kết thúc trong các lĩnh vực như phát hiện va chạm và phát hiện ngã. Nhưng Siri, tập trung vào quyền riêng tư, đã không thể vượt qua những người tiền nhiệm của nó. Thông minh hóa nó bằng AI có thể giúp nó hữu ích hơn một chút.

Apple dường như đang sử dụng AI chậm hơn so với các công ty khác, như OpenAI, Microsoft và Google, những công ty đang thử nghiệm phần lớn với các bản beta mở. Điều đó phù hợp với cách tiếp cận của Apple trong nhiều danh mục sản phẩm, trong đó họ chờ đợi chúng trưởng thành trước khi tung ra một sản phẩm tinh tế.

Bản thân CEO Tim Cook đã dùng thử ChatGPT, nhưng cũng cảnh báo về vấn đề thiên vị và thông tin sai lệch. Sẽ rất thú vị để xem Apple giải quyết những vấn đề đó như thế nào.

Công ty GPU Trung Quốc Biren lên kế hoạch IPO để cạnh tranh tốt hơn với Nvidia

Biren, nhà phát triển GPU điện toán của Trung Quốc, đang cân nhắc phát hành cổ phiếu lần đầu ra công chúng (IPO) tại Hồng Kông trong năm nay. Theo một báo cáo từ Bloomberg, điều này xảy ra khi các khách hàng trong nước đang ngày càng ưa chuộng chip AI của họ hơn là của Nvidia, vốn đắt đỏ và khan hiếm. Với hy vọng nắm bắt cơ hội này, công ty khởi nghiệp công nghệ đang định vị chính mình để tận dụng nhu cầu ngày càng tăng đối với các sản phẩm của mình

Biren dự kiến ​​sẽ đăng ký bán cổ phần lần đầu tiên trong vài tuần tới, theo báo cáo trích dẫn các nguồn ẩn danh. Đồng thời, Biren đang đàm phán với các nhà đầu tư tiềm năng, bao gồm cả các quỹ do chính phủ hỗ trợ ở Quảng Châu. Các cuộc thảo luận này tập trung vào một vòng tài trợ độc lập khác có thể thu về khoảng 2 tỷ nhân dân tệ (279 triệu USD). Biren đang tìm cách huy động vốn vào năm ngoái với mức định giá 17 tỷ nhân dân tệ, tương đương khoảng 2,4 tỷ USD. Hiện tại, Biren vẫn chưa xác định phạm vi IPO, cùng với khung thời gian chính xác.

Lý do khiến Biren tự tin về mức định giá của mình là vì các sản phẩm của công ty có vẻ cạnh tranh so với GPU điện toán của Nvidia (ít nhất là trên giấy tờ) và thị trường GPU điện toán có khả năng AI đang bùng nổ ngày nay.

Dòng GPU điện toán đầu tay của Biren bao gồm hai tùy chọn: BR100 và BR104. BR104 ‘cơ sở’ mang lại hiệu suất lên tới 128 FP32 TFLOPS hoặc 1 INT8 PetaFLOPS, trong khi BR100 cao cấp hơn — về cơ bản là hai BR104 trên một bộ xen kẽ silicon — mang lại hiệu suất lên tới 256 FP32 TFLOPS hoặc 2 INT8 PetaFLOPS. BR104 tầm trung đi kèm với bộ nhớ HBM2E 32 GB, sử dụng giao diện 2048 bit cung cấp băng thông 819 GB/giây. Ngược lại, BR100 cao cấp được trang bị bộ nhớ HBM2E 64GB, có giao diện 4096-bit với băng thông 1,64 TB/s.

Vuốt để cuộn theo chiều ngang
Ô Tiêu đề – Cột 0 Biren BR104 Biren BR100 NVIDIA A100 Nvidia H100
Yếu tố hình thức Thẻ FHFL Mô-đun OAM SXM4 SXM5
Số lượng bóng bán dẫn ? 77 tỷ 54,2 tỷ 80 tỷ
Nút N7 N7 N7 4N
Quyền lực 300W 550W 400W 700W
TFLOPS FP32 128 256 19,5 60
TF32+ TFLOPS 256 512 ? ?
TF32 TFLOPS ? ? 156/312* 500/1000*
TFLOPS FP16 ? ? 78 120
Tenor FP16 TFLOPS ? ? 312/624* 1000/2000*
TFLOPS BF16 512 1024 39 120
Tenor BF16 TFLOPS ? ? 312/624* 1000/2000*
INT8 1024 2048 ? ?
Tenor INT8 TFLOPS ? ? 624/1248* 2000/4000*

Có một lý do khác cho sự lạc quan của Biren. Những nỗ lực gây quỹ của nó trùng hợp với nỗ lực thúc đẩy mạnh mẽ của chính phủ Trung Quốc nhằm thúc đẩy ngành công nghiệp bán dẫn trong nước. Động thái này là một phản ứng đối với chiến dịch do Hoa Kỳ dẫn đầu đã ngăn chặn các công ty Trung Quốc mua nhiều GPU điện toán từ AMD, Intel và Nvidia, tất cả đều cạnh tranh với các sản phẩm của Biren. Do các sản phẩm của Nvidia đắt và khan hiếm, theo báo cáo của các phương tiện truyền thông, Biren có thể bán nhiều GPU hơn, ít nhất là cho các công ty không sử dụng ngăn xếp phần mềm CUDA của Nvidia cho khối lượng công việc AI của họ.

Nhưng Biren cũng đang phải đối mặt với nhiều thách thức. Năm ngoái, TSMC đã tạm dừng vận chuyển GPU điện toán cho Biren nhằm đảm bảo rằng chúng đáp ứng các quy tắc xuất khẩu của Hoa Kỳ về hiệu suất và khả năng. Điều này buộc công ty phải cắt giảm nhân sự để cắt giảm chi phí. Rõ ràng, Biren có thể mua đủ silicon vào lúc này, vì vậy công việc chính của họ vào lúc này là đảm bảo rằng kho phần mềm của họ có khả năng cạnh tranh khi so sánh với Nvidia, Intel và AMD.

Trong lĩnh vực này, Nvidia cực kỳ khó bị đánh bại. Công ty đã dành gần hai thập kỷ để tinh chỉnh CUDA và trong những năm gần đây đã đầu tư hàng trăm triệu USD vào việc tạo ra nền tảng CUDA được lựa chọn để phát triển AI. Hiện tại, nhiều công ty siêu quy mô của Trung Quốc thích sử dụng GPU của Nvidia cho các sản phẩm AI của họ do tính ưu việt của CUDA và số tiền họ đã đầu tư vào hệ sinh thái này.

SSD 2TB Adata XPG Gammix S70 Blade giảm xuống còn $109: Ưu đãi có thật

Dung lượng lưu trữ M.2 Gen 4 tốc độ cao không quá đắt — thanh SSD Adata XPG Gammix S70 Blade 2TB này hiện giảm xuống còn $109. Với tốc độ đọc và ghi tuần tự là 7400/6800 MB/giây, ổ đĩa này đủ nhanh cho bất kỳ tác vụ nào bạn có thể thực hiện.

Một máy tính xách tay chơi game được phát hành gần đây có giá gần 1.500 đô la, Lenovo Legion 5i Gen 8 giảm xuống còn 1.579 đô la. Thông số kỹ thuật của máy tính xách tay này bao gồm bộ xử lý Core i9-13900HX cao cấp và GPU Nvidia RTX 4070, cung cấp nhiều năng lượng để chơi các tựa game mới nhất.

Nếu bạn đang tìm kiếm một bàn phím cơ mới có điều khiển đa phương tiện và đủ RGB để thu hút những chú Kỳ lân khó tính nhất, thì Corsair K70 RGB Pro với giá 109 USD là một lựa chọn tuyệt vời cho bàn phím chơi game có dây.

Xem bên dưới để biết thêm ưu đãi.

TL;DR — Ưu đãi tốt nhất hôm nay

Giao dịch tốt nhất hiện nay một cách chi tiết

Tìm kiếm nhiều giao dịch?

Quay lại XPG Gammix S70 Blade

Tải thêm ưu đãi

Biểu đồ của các nhà nghiên cứu về sự suy giảm đáng báo động về chất lượng phản hồi ChatGPT

Trong những tháng gần đây, đã có rất nhiều bằng chứng mang tính giai thoại và những lời xì xào chung liên quan đến sự suy giảm chất lượng của các phản hồi ChatGPT. Một nhóm các nhà nghiên cứu từ Stanford và UC Berkeley đã quyết định xác định xem liệu có thực sự có sự xuống cấp hay không và đưa ra các số liệu để đo lường quy mô của sự thay đổi bất lợi. Tóm lại, việc giảm chất lượng ChatGPT chắc chắn là ngoài sức tưởng tượng.

Ba học giả nổi tiếng, Matei Zaharia, Lingjiao Chen và James Zou, đứng sau bài báo nghiên cứu được xuất bản gần đây Hành vi của ChatGPT thay đổi theo thời gian như thế nào? (PDF) Đầu ngày hôm nay, Giáo sư Khoa học Máy tính tại UC Berkeley, Zaharia, đã lên Twitter để chia sẻ những phát hiện. Anh ấy đã nhấn mạnh một cách đáng ngạc nhiên rằng “Tỷ lệ thành công của GPT -4 trên ‘số này có phải là số nguyên tố không? Nghĩ từng bước một’ đã giảm từ 97,6% xuống 2,4% từ tháng 3 đến tháng 6.”

GPT-4 đã phổ biến rộng rãi khoảng hai tuần trước và được OpenAI coi là mô hình tiên tiến và có khả năng nhất. Nó nhanh chóng được phát hành cho các nhà phát triển API trả tiền, tuyên bố rằng nó có thể cung cấp năng lượng cho một loạt sản phẩm AI sáng tạo mới. Do đó, thật đáng buồn và đáng ngạc nhiên khi nghiên cứu mới cho thấy họ rất mong muốn nhận được phản hồi có chất lượng khi đối mặt với một số truy vấn khá đơn giản.

Chúng tôi đã đưa ra một ví dụ về tỷ lệ thất bại cao nhất của GPT-4 trong các truy vấn số nguyên tố ở trên. Nhóm nghiên cứu đã thiết kế các nhiệm vụ để đo lường các khía cạnh định tính sau của các mô hình ngôn ngữ lớn (LLM) cơ bản của ChatGPT là GPT-4 và GPT-3.5. Các nhiệm vụ được chia thành bốn loại, đo lường một loạt các kỹ năng AI trong khi tương đối đơn giản để đánh giá hiệu suất.

  • Giải bài toán
  • Trả lời câu hỏi nhạy cảm
  • Tạo mã
  • lý luận trực quan

Tổng quan về hiệu suất của Open AI LLM được cung cấp trong biểu đồ bên dưới. Các nhà nghiên cứu đã định lượng các bản phát hành GPT-4 và GPT-3.5 trong các bản phát hành vào tháng 3 năm 2023 và tháng 6 năm 2023.

(Nguồn: Matei Zaharia, Lingjiao Chen, James Zou)

Rõ ràng là dịch vụ LLM “giống nhau” trả lời các truy vấn khá khác nhau theo thời gian. Sự khác biệt đáng kể được nhìn thấy trong khoảng thời gian tương đối ngắn này. Vẫn chưa rõ các LLM này được cập nhật như thế nào và liệu những thay đổi nhằm cải thiện một số khía cạnh hiệu suất của chúng có thể tác động tiêu cực đến những khía cạnh khác hay không. Xem phiên bản mới nhất của GPT-4 ‘tệ hơn’ bao nhiêu so với phiên bản tháng 3 trong ba hạng mục thử nghiệm. Nó chỉ được hưởng một lợi nhuận nhỏ trong suy luận trực quan.

(Nguồn: Matei Zaharia, Lingjiao Chen, James Zou)

Một số có thể không bận tâm về chất lượng thay đổi được quan sát thấy trong ‘các phiên bản giống nhau’ của các LLM này. Tuy nhiên, các nhà nghiên cứu lưu ý: “Do tính phổ biến của ChatGPT, cả GPT-4 và GPT-3.5 đã được người dùng cá nhân và một số doanh nghiệp áp dụng rộng rãi.” Do đó, không có khả năng một số thông tin do GPT tạo ra có thể ảnh hưởng đến của bạn mạng sống.

Các nhà nghiên cứu đã bày tỏ ý định tiếp tục đánh giá các phiên bản GPT trong một nghiên cứu dài hơn. Có lẽ Open AI nên theo dõi và xuất bản các bài kiểm tra chất lượng thường xuyên của riêng mình cho các khách hàng trả tiền của mình. Nếu không thể hiểu rõ hơn về điều này, thì các tổ chức chính phủ hoặc doanh nghiệp có thể cần phải kiểm tra một số chỉ số chất lượng cơ bản cho các LLM này, những chỉ số này có thể có tác động đáng kể đến thương mại và nghiên cứu.

Xem thêm

Công nghệ AI và LLM không còn xa lạ với các vấn đề đáng ngạc nhiên và với các tuyên bố ăn cắp dữ liệu của ngành và các vũng lầy PR khác, hiện tại nó dường như là biên giới ‘miền tây hoang dã’ mới nhất trong cuộc sống và thương mại được kết nối.

Bản cập nhật AMD AM5 AGESA bổ sung hỗ trợ DDR5-8000

Theo một số Reddit, Twitter, và TechPowerUp báo cáo, AMD đã cải thiện đáng kể khả năng hỗ trợ bộ nhớ DDR5 trên nền tảng AM5 với bản cập nhật vi mã mới được gọi là AGESA 1.0.0.7b. Bản cập nhật cho phép một số bo mạch đẩy tần số DDR5 lên tới 8000MHz mà không gặp sự cố và tăng tỷ lệ 1:1 (UCLK:MEMCLK) tối ưu lên 6400MHz. Gigabyte và ASRock đã công bố các lần chạy ổn định với bản cập nhật BIOS mới, cho thấy 8000MHz và 7200MHz hoạt động hoàn hảo trên Aorus X670E Master và X670E Taichi.

Hiện tại chỉ có một số bo mạch chủ AM5 có bản cập nhật vi mã mới. Tuy nhiên, chúng tôi cho rằng bản cập nhật sẽ sẵn có hơn trong vài tuần tới, tùy thuộc vào lịch trình ra mắt của từng nhà sản xuất bo mạch chủ.

Xem thêm

ASRock X670E taichi bios mới có hỗ trợ liên kết bộ nhớ 7200 xmp/expo bên trong… từ r/Amd

Một kỹ sư của ASRock trên Reddit đã chia sẻ nhiều thay đổi mà AMD đã thực hiện đối với bản cập nhật vi mã 1.0.0.7b giúp tăng đáng kể khả năng hỗ trợ bộ nhớ. Một trong những cài đặt lớn nhất là cài đặt mới có tên là chế độ nitro DDR5 giúp thay đổi một số tham số thời gian bên trong bộ điều khiển bộ nhớ của CPU Ryzen 7000 để kích hoạt tần số cao hơn. Đào tạo bộ nhớ cũng đã nhận được một số thay đổi quan trọng, cho phép người dùng chạy thuật toán đào tạo bộ nhớ ban đầu lâu hơn nếu cần, điều này có thể cải thiện khả năng che đậy của bộ bộ nhớ DDR5 có vấn đề hoạt động trên bo mạch chủ AM5.

Theo kỹ sư này, bản cập nhật mới hiện sẽ cho phép hầu hết các CPU Ryzen 7000 chạy thoải mái ở tốc độ 6400 MHz theo tỷ lệ 1: 1 mà không bị lỗi và cho phép một số bo mạch chủ và CPU đạt tốc độ 7600-7800 MHz tùy thuộc vào lô silicon khi chạy ở tỷ lệ cao hơn. Đây là một sự thay đổi lớn so với trước đây, nơi mà mọi thứ vượt qua 6000MHz đều không thể đoán trước từ quan điểm độ tin cậy.

Tất nhiên, những thay đổi này đến từ một kỹ sư ASRock cụ thể, vì vậy chúng tôi không thể chắc chắn liệu một số thay đổi này là dành riêng cho bo mạch hay tất cả những thay đổi này đến từ chính bản cập nhật vi mã AGESA. Bất chấp điều đó, bản cập nhật mới dường như đã khắc phục rất nhiều vấn đề về bộ nhớ mà nền tảng AM5 mới của AMD đã xử lý ngay từ đầu, cũng như cải thiện khả năng hỗ trợ cho các bộ nhớ cực nhanh trong phạm vi 7000-8000 MHz (dù là ép xung sẵn hay ép xung thủ công). ).

Bạn nên sử dụng công cụ BI nào?

Việc chọn công cụ BI phù hợp với nhu cầu của bạn đòi hỏi phải xem xét kỹ lưỡng các tính năng và khả năng. Xem giải pháp nào trong số hai giải pháp hàng đầu này, Looker và Tableau, có thể phù hợp với tổ chức của bạn.

Looker và Tableau đều là những công cụ kinh doanh thông minh mạnh mẽ. Nhưng bạn nên chọn cái nào cho tổ chức của mình? Mỗi giải pháp sẽ nhập dữ liệu từ nhiều nguồn, cung cấp phân tích BI chuyên sâu và tạo trực quan hóa dữ liệu phong phú. Tuy nhiên, Looker có thể cung cấp nhiều chức năng hơn và dễ sử dụng hơn, trong khi Tableau đào sâu hơn một chút vào các tập dữ liệu lớn và phức tạp.

Hai sản phẩm này đều là phần mềm BI được đánh giá cao, thường xuyên được khen ngợi về tính bảo mật, hỗ trợ kỹ thuật và sự nhanh nhẹn. Hãy so sánh Looker và Tableau để xác định cái nào sẽ tốt nhất cho tổ chức của bạn.

Chuyển đến:

Looker là gì?

Looker là bảng điều khiển phân tích BI phổ biến, dễ sử dụng. Nhân viên có thể tạo và chia sẻ chế độ xem để tìm hiểu sâu hơn về hiệu suất của tổ chức của họ. Looker thuộc sở hữu của Google và được cung cấp ở mức giá cố định hàng tháng cho mỗi công ty.

Tableau là gì?

Tableau là một bộ trực quan hóa dữ liệu chủ yếu được sử dụng cho phân tích và thông minh kinh doanh. Thông qua Tableau, các tổ chức có thể tùy chỉnh và tối ưu hóa cách họ tương tác với dữ liệu của mình. Tableau hiện thuộc sở hữu của Salesforce và được cung cấp dưới dạng đăng ký hàng tháng cho mỗi người dùng.

Looker so với Tableau: Bảng so sánh

Đặc trưng người nhìn Hoạt cảnh
giá khởi điểm 5.000 đô la mỗi tháng $15 mỗi người dùng mỗi tháng, thanh toán hàng năm
Hỗ trợ qua điện thoại 24/7 KHÔNG Đúng
ngôn ngữ độc quyền Đúng KHÔNG
bảng điều khiển phân tích Đúng Đúng
Làm mới dữ liệu Mỗi tiếng Lên kế hoạch
cơ sở hạ tầng Đám mây Máy tính để bàn và đám mây
sửa đổi ngôn ngữ mô hình hóa câu chuyện có hướng dẫn


Định giá của Looker và Tableau

Bắt đầu từ 5.000 đô la mỗi tháng, Looker có thể tốn kém hơn nhiều đối với các công ty nhỏ hơn. Do đó, Looker lý tưởng cho các công ty lớn hơn muốn duy trì khả năng mở rộng. Để so sánh, giải pháp Creator của Tableau bắt đầu ở mức 70 đô la cho mỗi người dùng, khiến nó trở nên lý tưởng cho các doanh nghiệp nhỏ hơn.

định giá

Giá Looker được xác định bởi hai yếu tố chính: chi phí định giá nền tảng để chạy phiên bản Looker và chi phí định giá người dùng để cấp phép cho người dùng cá nhân truy cập nền tảng Looker.

Looker cung cấp ba phiên bản nền tảng:

  • Tiêu chuẩn: Pay-as-you-go được định giá hàng tháng ở mức 5.000 đô la hoặc được định giá hàng năm cho một mức giá báo giá tùy chỉnh.
  • doanh nghiệp: Báo giá tùy chỉnh.
  • Nền tảng nhúng: Báo giá tùy chỉnh.

Giá giấy phép người dùng nhất quán trên mỗi phiên bản.

  • Người dùng Người xem: $30 mỗi người dùng mỗi tháng.
  • Người dùng chuẩn: $60 mỗi người dùng mỗi tháng.
  • Người dùng nhà phát triển: $125 mỗi người dùng mỗi tháng.

giá hoạt cảnh

Phiên bản Creator của Tableau cho phép người dùng quản lý giải pháp của họ, tương tác với phần mềm, cộng tác thông qua hệ thống và tác giả làm việc dựa trên bộ dữ liệu của họ. Ngoài ra, Tableau cung cấp các phiên bản Explorer và Virtual với khả năng hạn chế.

  • Trình tạo Tableau: $70 mỗi người dùng mỗi tháng, thanh toán hàng năm.
  • Trình khám phá Tableau: $42 mỗi người dùng mỗi tháng, thanh toán hàng năm.
  • Trình xem Tableau: $15 mỗi người dùng mỗi tháng, thanh toán hàng năm.

Hình A

Tableau Creator cho phép người dùng chia sẻ công việc của họ bằng cách xuất bản sổ làm việc của họ lên Tableau Cloud.

So sánh tính năng: Looker so với Tableau

Looker so với Tableau: Các tính năng chính

Tableau nhập dữ liệu có cấu trúc và phi cấu trúc để xây dựng các hình ảnh trực quan trang nhã, dễ đọc. Looker cũng cung cấp bảng điều khiển có thể tạo với hình ảnh trực quan phong phú cho dữ liệu đã nhập, sau đó người dùng tùy chỉnh cho phù hợp với nhu cầu của họ.

Hình B

Chế độ xem bảng điều khiển của Looker.

Cả hai đều là công cụ BI đầy đủ tính năng bao gồm các tính năng sau:

  • Hỗ trợ di động.
  • Hình ảnh tương tác.
  • Bảng điều khiển phân tích.
  • Quản trị và quản lý siêu dữ liệu.
  • API và công cụ tích hợp.

Tableau cung cấp khả năng phân tích và trực quan hóa dữ liệu nâng cao, nhưng Looker để các tùy chọn của nó hiển thị và có thể truy cập được.

Looker so với Tableau: Hiệu suất

Các công ty hiện đại đang xử lý các tập dữ liệu ngày càng lớn. Looker và Tableau hoạt động như thế nào khi được cung cấp dữ liệu lớn? Trong hầu hết các trường hợp, chúng sẽ hoạt động với hiệu quả tương đối ngang nhau. Tableau hiệu quả hơn với các tập dữ liệu mở rộng, trong khi Looker hiệu quả hơn Tableau trong môi trường dựa trên đám mây.

Hình C

Trình ánh xạ dữ liệu của Tableau.

Looker so với Tableau: Phân tích

Looker cung cấp các khối mã dựng sẵn, có thể định cấu hình. LookML, một ngôn ngữ giống như SQL độc quyền, có thể được sử dụng để tiếp tục tương tác và phân tích dữ liệu. Các giải pháp phân tích của Tableau không có lớp trừu tượng bổ sung này, khiến nó phức tạp hơn khi sử dụng nhưng cuối cùng lại dễ cấu hình hơn.

Looker so với Tableau: Hỗ trợ

Looker và Tableau đều có các giải pháp hỗ trợ và dịch vụ đáng tin cậy. Looker chủ yếu dựa vào các trung tâm trợ giúp trực tuyến và trò chuyện trong ứng dụng. Tableau cung cấp hỗ trợ thông qua các địa điểm truyền thống, chẳng hạn như đường dây điện thoại vào các ngày trong tuần và hỗ trợ qua điện thoại khẩn cấp 24/7. Cả Looker và Tableau đều có cộng đồng và tài liệu năng động và sôi nổi.

Ưu và nhược điểm của Looker

Ưu điểm của Looker

  • Với lớp ngữ nghĩa thống nhất của Looker, các chuyên gia dữ liệu có thể đơn giản hóa dữ liệu phức tạp cho người dùng cuối bằng cách mã hóa logic kinh doanh và số liệu trong các mô hình dữ liệu tập trung.
  • Mô hình dữ liệu của Looker đảm bảo chế độ xem dữ liệu theo thời gian thực nhất quán và được điều chỉnh trên nhiều đám mây, mang lại lợi ích cho toàn bộ tổ chức.
  • Các tổ chức có thể nâng cao các quyết định kinh doanh của mình bằng cách nhúng trực tiếp thông tin chuyên sâu chủ động vào các ứng dụng kinh doanh của họ bằng Looker.
  • Bằng cách tự động hóa các tác vụ như chuẩn bị và báo cáo dữ liệu, Looker hợp lý hóa quá trình phân tích dữ liệu, giúp tiết kiệm thời gian và tài nguyên cũng như cho kết quả chính xác hơn.
  • Looker đảm bảo bảo mật cấp doanh nghiệp thông qua các tính năng như kiểm soát truy cập dựa trên vai trò, mã hóa dữ liệu và ghi nhật ký kiểm tra. Điều này đảm bảo an toàn dữ liệu và tuân thủ các chính sách bảo mật.

Hình dung

Looker trình bày dữ liệu với hình ảnh trực quan bao gồm các đường tham chiếu dọc để dễ dàng truy cập thông tin chi tiết.

Nhược điểm của Looker

  • Các doanh nghiệp phụ thuộc vào một số lượng lớn nguồn dữ liệu có thể gặp phải những hạn chế với phần mềm vì phần mềm chỉ có thể kết nối với một nhóm nguồn dữ liệu bị hạn chế.
  • Các phân tích của Looker không sâu hoặc có thể cấu hình được so với Tableau.

Tableau ưu và nhược điểm

Ưu điểm của Tableau

  • Người dùng có thể đẩy nhanh việc khám phá những hiểu biết sâu sắc với sự hỗ trợ của các phân tích do AI cung cấp.
  • Học máy, thống kê, xử lý ngôn ngữ tự nhiên và chuẩn bị dữ liệu thông minh đều có thể truy cập dễ dàng.
  • Einstein Discovery cho phép người dùng đưa ra quyết định thông minh hơn bằng cách cung cấp các dự đoán và đề xuất trong quy trình làm việc. Nó cho phép tạo ra các mô hình dự đoán mà không cần mã hóa thuật toán.

Nhược điểm của Tableau

  • Người dùng có thể gặp phải sự chậm trễ khi xử lý lượng lớn dữ liệu trong hệ thống.
  • Người dùng không có kỹ thuật có thể gặp khó khăn trong việc tìm ra cách sử dụng phần mềm của Tableau vì nó có một đường cong học tập đáng kể.

Phương pháp đánh giá

Đây là một đánh giá kỹ thuật bằng cách sử dụng tài liệu tổng hợp được nghiên cứu từ các cơ sở dữ liệu có liên quan. Thông tin được cung cấp trong bài viết này được thu thập từ các trang web của nhà cung cấp hoặc dựa trên tổng hợp phản hồi của người dùng để đảm bảo đánh giá chất lượng cao.

Tổ chức của bạn nên sử dụng Looker hay Tableau?

Không có giải pháp nào nhất thiết phải tốt hơn, nhưng Tableau phức tạp hơn Looker. Looker cung cấp nhiều tính năng thân thiện với người dùng, chẳng hạn như Khối Looker, giúp quản lý chế độ xem phân tích dễ dàng hơn. Tuy nhiên, Tableau cung cấp nhiều cơ hội hơn để quản lý và phân tích dữ liệu nâng cao.

Một số yếu tố quan trọng sẽ quyết định xem bạn muốn sử dụng Looker hay Tableau làm phần mềm BI cho tổ chức của bạn.

  • Dễ sử dụng: Người dùng của bạn có đang tìm hiểu sâu về phân tích (Tableau) hay họ sẽ cần một hệ thống dễ sử dụng, có thể truy cập (Looker)?
  • Trị giá: Công ty của bạn đang tìm kiếm một giải pháp giá cả phải chăng cho một số ít nhân viên (Tableau) hay một sản phẩm có thể hỗ trợ một doanh nghiệp lớn với mức giá cố định (Looker)?
  • khả năng: Bạn có cần đào sâu vào dữ liệu của mình (Tableau) hay bạn quan tâm hơn đến việc trực quan hóa và sử dụng dữ liệu của mình (Looker)?

Nếu tổ chức của bạn muốn có một hệ thống nhanh, dễ sử dụng với trực quan hóa dữ liệu đẹp mắt thì Looker là lựa chọn tốt nhất. Nếu tổ chức của bạn đang tìm kiếm phân tích dữ liệu chuyên sâu hoặc kế hoạch tiết kiệm chi phí cho một số ít người, thì Tableau là phần mềm BI tốt hơn.

đối tác nổi bật

1
Domo

Truy cập trang web

Domo đưa dữ liệu vào hoạt động cho mọi người để họ có thể nhân rộng tác động của mình đối với doanh nghiệp. Được củng cố bởi nền tảng dữ liệu an toàn, nền tảng trải nghiệm dữ liệu gốc trên đám mây của chúng tôi giúp dữ liệu hiển thị và có thể thao tác được với các ứng dụng và trang tổng quan thân thiện với người dùng. Domo giúp các công ty tối ưu hóa các quy trình kinh doanh quan trọng ở quy mô lớn và trong thời gian kỷ lục để khơi dậy sự tò mò táo bạo giúp tăng cường kết quả kinh doanh theo cấp số nhân.

Tìm hiểu thêm về domo

2
vây vàng

Truy cập trang web

Nền tảng phân tích nhúng của Yellowfin cho phép bạn tạo các hình ảnh trực quan tuyệt đẹp có thể được sử dụng để xây dựng bảng điều khiển, câu chuyện dữ liệu và bản trình bày hấp dẫn, cho phép mọi người xem và hiểu các xu hướng, ngoại lệ và mẫu trong dữ liệu của họ. Yellowfin trao quyền cho bất kỳ ai tạo trực quan hóa dữ liệu và cung cấp nhiều cách để chia sẻ thông tin chi tiết nhằm đảm bảo dữ liệu là trọng tâm của quá trình ra quyết định.

Tìm hiểu thêm về vây vàng

Exit mobile version