Bình luận: Sau khi phân tích rất nhiều nội dung gần đây của nhà phát triển Microsoft, chuyên gia Simon Bisson cho biết có một manh mối lớn về cách Bing Chat sẽ hoạt động.
Nếu có một điều cần biết về Microsoft, thì đó là: Microsoft là một công ty nền tảng. Nó tồn tại để cung cấp các công cụ và dịch vụ mà bất kỳ ai cũng có thể xây dựng trên đó, từ hệ điều hành và công cụ dành cho nhà phát triển, đến các bộ sản phẩm và dịch vụ năng suất cũng như trên đám mây toàn cầu của nó. Vì vậy, chúng ta không nên ngạc nhiên khi một thông báo từ Redmond nói về việc “chuyển từ sản phẩm sang nền tảng”.
Thông báo mới nhất như vậy là dành cho dịch vụ trò chuyện dựa trên Bing GPT mới. Kết hợp tìm kiếm với trí tuệ nhân tạo đã cho phép Bing cung cấp một môi trường tìm kiếm đàm thoại được xây dựng dựa trên chỉ mục Bing cũng như các công nghệ tổng hợp và tạo văn bản GPT-4 của OpenAI.
Thay vì làm việc thông qua danh sách các trang và nội dung, các truy vấn của bạn được trả lời bằng một bản tóm tắt văn bản ngắn với các liên kết có liên quan và bạn có thể sử dụng các công cụ trò chuyện của Bing để tinh chỉnh câu trả lời của mình. Đó là một cách tiếp cận đã biến Bing trở lại một trong những điểm tiếp thị ban đầu của nó: giúp bạn đưa ra quyết định cũng như tìm kiếm nội dung.
NHÌN THẤY: Thiết lập chính sách đạo đức trí tuệ nhân tạo trong doanh nghiệp của bạn bằng cách sử dụng mẫu này từ TechRepublic Premium.
ChatGPT gần đây đã thêm các trình cắm mở rộng nó vào các dịch vụ tập trung hơn; Là một phần trong cách tiếp cận tiến hóa của Microsoft để thêm AI vào Bing, nó sẽ sớm làm điều tương tự. Nhưng, vẫn còn một câu hỏi: Nó sẽ hoạt động như thế nào? May mắn thay, có một manh mối lớn trong hình dạng của một trong nhiều dự án mã nguồn mở của Microsoft.
Chuyển đến:
Hạt nhân ngữ nghĩa: Cách Microsoft mở rộng GPT
Microsoft đã và đang phát triển một bộ công cụ để làm việc với các dịch vụ Azure OpenAI GPT của mình có tên là Semantic Kernel. Nó được thiết kế để cung cấp các ứng dụng dựa trên GPT tùy chỉnh vượt xa tập huấn luyện ban đầu bằng cách thêm các phần nhúng của riêng bạn vào mô hình. Đồng thời, bạn có thể gói các chức năng ngữ nghĩa mới này bằng mã truyền thống để xây dựng các kỹ năng AI, chẳng hạn như tinh chỉnh đầu vào, quản lý lời nhắc cũng như lọc và định dạng đầu ra.
Mặc dù thông tin chi tiết về mô hình plug-in AI của Bing sẽ không được công bố cho đến khi hội nghị nhà phát triển BUILD của Microsoft diễn ra vào cuối tháng 5, nhưng có khả năng nó sẽ dựa trên mô hình kỹ năng Semantic Kernel AI.
Được thiết kế để hoạt động với và xung quanh giao diện lập trình ứng dụng của OpenAI, nó cung cấp cho các nhà phát triển công cụ cần thiết để quản lý ngữ cảnh giữa các lời nhắc, thêm nguồn dữ liệu của riêng họ để cung cấp tùy chỉnh và liên kết đầu vào và đầu ra với mã có thể giúp tinh chỉnh và định dạng đầu ra, như cũng như liên kết chúng với các dịch vụ khác.
Xây dựng một sản phẩm AI dành cho người tiêu dùng với Bing rất có ý nghĩa. Khi bạn đi sâu vào các công nghệ cơ bản, cả dịch vụ AI của GPT và công cụ tìm kiếm của Bing đều tận dụng lợi thế của một công nghệ tương đối ít được hiểu rõ: cơ sở dữ liệu vectơ. Những thứ này cung cấp cho các máy biến áp GPT cái được gọi là “bộ nhớ ngữ nghĩa”, giúp nó tìm thấy các liên kết giữa các lời nhắc và AI tổng quát của nó.
Cơ sở dữ liệu vectơ lưu trữ nội dung trong một không gian có thể có nhiều kích thước tùy theo mức độ phức tạp của dữ liệu của bạn. Thay vì lưu trữ dữ liệu của bạn trong một bảng, một quy trình được gọi là “nhúng” sẽ ánh xạ dữ liệu đó tới các vectơ có chiều dài và hướng trong không gian cơ sở dữ liệu của bạn. Điều đó giúp bạn dễ dàng tìm thấy nội dung tương tự, cho dù đó là văn bản hay hình ảnh; tất cả những gì mã của bạn cần làm là tìm một vectơ có cùng kích thước và cùng hướng với truy vấn ban đầu của bạn. Nó nhanh và thêm một sự ngẫu nhiên nhất định vào tìm kiếm.
Cung cấp bộ nhớ ngữ nghĩa GPT
GPT sử dụng vectơ để mở rộng lời nhắc của bạn, tạo văn bản tương tự như nội dung bạn nhập. Bing sử dụng chúng để nhóm thông tin nhằm tăng tốc độ tìm kiếm thông tin bạn đang tìm kiếm bằng cách tìm các trang web tương tự nhau. Khi bạn thêm nguồn dữ liệu nhúng vào dịch vụ trò chuyện GPT, bạn đang cung cấp cho dịch vụ đó thông tin mà dịch vụ này có thể sử dụng để phản hồi lời nhắc của bạn, sau đó có thể gửi thông tin này dưới dạng văn bản.
Một lợi thế của việc sử dụng các phần nhúng cùng với dữ liệu của Bing là bạn có thể sử dụng chúng để thêm văn bản dài của riêng mình vào dịch vụ, chẳng hạn như làm việc với các tài liệu trong tổ chức của riêng bạn. Ví dụ: bằng cách cung cấp nhúng vectơ các tài liệu chính như một phần của truy vấn, bạn có thể sử dụng tìm kiếm và trò chuyện để tạo các tài liệu thường được sử dụng có chứa dữ liệu từ tìm kiếm và thậm chí từ các trình cắm Bing khác mà bạn có thể đã thêm vào môi trường của mình .
Cung cấp các kỹ năng Bing Chat
Bạn có thể thấy các dấu hiệu của thứ gì đó giống như Hạt nhân ngữ nghĩa công khai đang hoạt động trong bản phát hành Bing mới nhất, vì nó bổ sung các tính năng lấy dữ liệu do GPT tạo và xử lý, rồi biến chúng thành biểu đồ và bảng, giúp trực quan hóa kết quả. Bằng cách đưa ra lời nhắc GPT trả về danh sách giá trị, mã xử lý hậu kỳ có thể nhanh chóng biến đầu ra văn bản của nó thành đồ họa.
Vì Bing là một công cụ tìm kiếm có mục đích chung, nên việc bổ sung các kỹ năng mới liên kết với các nguồn dữ liệu chuyên biệt hơn sẽ cho phép bạn thực hiện các tìm kiếm chuyên biệt hơn (ví dụ: làm việc với kho lưu trữ các tài liệu y khoa). Và vì các kỹ năng sẽ cho phép bạn kết nối các kết quả Bing với các dịch vụ bên ngoài, nên bạn có thể dễ dàng hình dung một tập hợp các tương tác trò chuyện giúp bạn tìm một nhà hàng cho một dịp đặc biệt trước tiên và sau đó đặt địa điểm bạn đã chọn — tất cả mà không cần rời khỏi tìm kiếm.
Bằng cách cung cấp một khung cho cả tương tác riêng tư và công khai với GPT-4 và bằng cách thêm hỗ trợ cho sự bền bỉ giữa các phiên, kết quả sẽ là một khung tự nhiên hơn nhiều so với các ứng dụng tìm kiếm truyền thống.
Với các phần bổ trợ để mở rộng mô hình đó sang các nguồn dữ liệu khác và các dịch vụ khác, có khả năng cung cấp môi trường điện toán dựa trên ngôn ngữ tự nhiên mà Microsoft đã hứa hẹn trong hơn một thập kỷ. Và bằng cách biến nó thành một nền tảng, Microsoft đảm bảo rằng nó vẫn là một môi trường mở, nơi bạn có thể xây dựng các công cụ mình cần và không phải phụ thuộc vào các công cụ mà Microsoft cung cấp cho bạn.
Microsoft đang sử dụng thương hiệu Copilot cho tất cả các trợ lý dựa trên AI của mình, từ công cụ dựa trên GPT của GitHub cho đến các tính năng mới trong cả Microsoft 365 và trong Power Platform. Hy vọng rằng nó sẽ tiếp tục mở rộng GPT theo cùng một cách trong tất cả nhiều nền tảng của nó, vì vậy chúng tôi có thể đưa các phần bổ trợ của mình đến nhiều hơn chỉ Bing, sử dụng các mô hình lập trình giống nhau để vượt qua ranh giới giữa mã truyền thống và lời nhắc AI tổng quát và Bộ nhớ ngữ nghĩa.