GPT-4 hiện khả dụng cho người đăng ký ChatGPT Plus
3 phút đọc
Được đăng trên
Đọc trang tiết lộ của chúng tôi để tìm hiểu cách bạn có thể giúp MSPoweruser duy trì nhóm biên tập Tìm hiểu thêm
OpenAI cuối cùng đã được tiết lộ GPT-4. Theo công ty, mô hình AI mới nhất của họ chính xác và hiệu quả hơn vì nó có thể xử lý nhiều đầu vào hơn mà không bị nhầm lẫn. Thêm vào đó, GPT-4 thực sự có đa phương thức khả năng, cho phép nó xử lý hình ảnh. GPT-4 hiện khả dụng cho những người đăng ký ChatGPT Plus và các nhà phát triển hiện có thể truy cập nó dưới dạng API.
Sau báo cáo về sự xuất hiện của nó vào tuần trước, GPT-4 cuối cùng đã có mặt, được phân phối qua cơ sở hạ tầng được tối ưu hóa cho AI của Azure. Nó được đào tạo trên siêu máy tính Microsoft Azure AI và có một số điểm khác biệt đáng chú ý so với GPT-3.5. Đặc biệt, GPT-4 ghi bàn ở phân vị thứ 88 trở lên trong các bài kiểm tra và điểm chuẩn khác nhau.
OpenAI cho biết trong một bài đăng trên blog: “Trong một cuộc trò chuyện thông thường, sự khác biệt giữa GPT-3.5 và GPT-4 có thể rất tinh tế. “Sự khác biệt xuất hiện khi mức độ phức tạp của tác vụ đạt đến ngưỡng đủ — GPT-4 đáng tin cậy hơn, sáng tạo hơn và có thể xử lý nhiều hướng dẫn sắc thái hơn nhiều so với GPT-3.5.”
Nhìn chung, OpenAI cho biết mô hình mới sẽ ít hơn 82% khả năng đáp ứng các chủ đề và yêu cầu bị hạn chế, đảm bảo an toàn cho người dùng. Chất lượng phản hồi của nó cũng được cải thiện, với khả năng đưa ra câu trả lời thực tế lên tới 40%.
Một phần lớn của GPT-4 tập trung vào khả năng xử lý các truy vấn hiệu quả hơn. Như OpenAI đã lưu ý, giờ đây nó có thể chấp nhận 25,000 từ văn bản mà không gặp phải sự nhầm lẫn. Đây là tin tốt cho những người dùng muốn sử dụng toàn bộ tiềm năng của mô hình, vì họ sẽ được phép cung cấp thêm chi tiết và hướng dẫn trong các câu hỏi và yêu cầu của họ. Tuy nhiên, điểm nổi bật nhất của GPT-4 là việc bổ sung khả năng đa phương thức, đây là một trong những kỳ vọng lớn nhất đối với mô hình này kể từ khi nó được báo cáo vào tuần trước. Bằng cách sử dụng khả năng mới này, GPT-4 hiện có thể xử lý đầu vào hình ảnh và mô tả chúng thông qua văn bản, mặc dù tính năng này chưa khả dụng cho tất cả khách hàng OpenAI vì nó vẫn đang được thử nghiệm về mặt kỹ thuật với sự trợ giúp của Be My Eyes và tính năng Tình nguyện viên ảo của nó .
“Ví dụ: nếu người dùng gửi hình ảnh bên trong tủ lạnh của họ, Tình nguyện viên ảo sẽ không chỉ có thể xác định chính xác những gì có trong đó mà còn ngoại suy và phân tích những gì có thể được chuẩn bị với những thành phần đó,” OpenAi mô tả chức năng . “Sau đó, công cụ này cũng có thể cung cấp một số công thức nấu ăn cho những nguyên liệu đó và gửi hướng dẫn từng bước về cách tạo ra chúng.”
Ồ Bing bây giờ thực sự có thể mô tả hình ảnh, bây giờ nó biết rằng nó đang sử dụng GPT-4!
byu/PhongThuyCuaTui inbing
Tuy nhiên, khả năng đa phương thức này dường như được đưa một phần vào Bing mới. Microsoft cho biết chatbot của công cụ tìm kiếm của họ đã chạy mô hình này từ tuần trước. Tuy nhiên, điều quan trọng cần lưu ý là tính năng đa phương thức của Bing vẫn còn hạn chế. Để bắt đầu, nó chỉ có thể chấp nhận hình ảnh thông qua các liên kết được cung cấp trên web mà nó sẽ mô tả dưới dạng phản hồi. Trong khi đó, khi được hỏi về hình ảnh sử dụng mô tả, chatbot sẽ cung cấp nội dung phù hợp nhất, bao gồm kết quả hình ảnh và hơn thế nữa.
Ngoài ra, những cải tiến này trong GPT-4 không có nghĩa là chấm dứt các vấn đề hiện có thường xuất hiện trong tất cả các sản phẩm AI tổng quát. Mặc dù OpenAI đã hứa rằng mô hình này sẽ an toàn hơn GPT-3.5 về mặt từ chối phản hồi các hướng dẫn có hại, nhưng nó vẫn có thể tạo ra ảo giác và thành kiến xã hội. Giám đốc điều hành OpenAI Sam Altman thậm chí mô tả GPT-4 là một cái gì đó “vẫn còn thiếu sót, vẫn còn hạn chế”. Mặc dù vậy, nhóm vẫn tận tâm cải tiến liên tục mô hình này khi nó tiếp tục thu hút nhiều sự chú ý hơn từ công chúng và khi Microsoft đưa nó vào nhiều sản phẩm của mình hơn.
Diễn đàn người dùng
Tin nhắn 0