Theo bài đăng trên blog của nền tảng phát triển AI HumanLoop, Giám đốc điều hành OpenAI Sam Altman cho biết trong một cuộc hội thảo kín rằng OpenAI hiện đang bị giới hạn bởi GPU, điều này đã làm trì hoãn nhiều kế hoạch ngắn hạn và đặt ra câu hỏi về độ tin cậy và tốc độ của ChatGPT cũng là do thiếu tài nguyên GPU.
Sam Altman cũng chia sẻ lộ trình tương lai của OpenAI: Chi phí API GPT-4 sẽ giảm vào năm 2023; cửa sổ ngữ cảnh ChatGPT dài hơn (tối đa 1 triệu mã thông báo), sẽ khởi chạy phiên bản API ghi lại lịch sử hội thoại; khả năng đa phương thức của GPT-4 là dự kiến sẽ ra mắt công chúng vào năm 2024, nhưng không thể mở rộng phiên bản tầm nhìn của GPT-4 cho mọi người cho đến khi có nhiều tài nguyên GPU hơn.
Hơn nữa, OpenAI đang xem xét mã nguồn mở GPT-3, điều mà họ đã không thực hiện một phần vì họ tin rằng không nhiều người và công ty có khả năng quản lý đúng cách một mô hình ngôn ngữ lớn như vậy. Nhiều bài báo gần đây cho rằng "kỷ nguyên của những mô hình AI khổng lồ đã qua" là không đúng. Dữ liệu nội bộ của OpenAI cho thấy quy luật tỷ lệ thuận giữa quy mô và hiệu suất vẫn đúng và quy mô mô hình của OpenAI có thể tăng gấp đôi, gấp ba mỗi năm (nhiều thông tin cho thấy Kích thước tham số GPT-4 là 1 nghìn tỷ), thay vì nhiều bậc độ lớn hơn.
Bitcoin vượt qua 100.000 USD! Cột mốc mới, điểm khởi đầu mới
Trò chuyện với CocoCat Lianchuang: Giảm chi phí hơn 90%, tăng cường bảo vệ quyền riêng tư và tạo mạng lưới cơ sở hạ tầng cho các ứng dụng quy mô lớn của Web3
XRP tăng vọt, điểm nhanh 9 dự án tiền tệ phát hành liên quan đến hệ sinh thái
Airdrop lớn nhất trong năm? Airdrop trung bình trên đầu người của Hyperliquid là 28.500 USD và sự phổ biến của HYPE mang đến cơn sốt Nuggets mới