Tin tức
06-28 21:06
OpenAI ra mắt mô hình CriticGPT để phát hiện lỗi trong đầu ra mã ChatGPT
Theo tin tức từ BitouchNews, Theo Financial News, OpenAI đã ra mắt một mô hình mới dựa trên GPT-4 - CriticGPT, được sử dụng để phát hiện lỗi trong đầu ra mã ChatGPT.CriticGPT tương đương với việc cho phép mọi người sử dụng GPT-4 để tìm lỗi GPT-4. Mô hình có thể đưa ra những nhận xét quan trọng về kết quả phản hồi của ChatGPT, từ đó giúp người huấn luyện AI đưa ra hỗ trợ AI rõ ràng cho các lỗi được tìm thấy trong quá trình "học tăng cường dựa trên phản hồi của con người (RLHF)".Nghiên cứu cho thấy rằng khi giảng viên sử dụng CriticGPT để xem lại mã đầu ra ChatGPT, họ hoạt động tốt hơn 60% so với những người không nhận được trợ giúp. Và, với sự trợ giúp của CriticGPT, các chỉnh sửa của họ sẽ toàn diện hơn những gì họ có thể tự thực hiện.
Tin tức
2023-04-06 11:16
OpenAI giới thiệu triển khai để bảo mật các mô hình AI: Phát hành các phiên bản mới để kiểm tra nghiêm ngặt, xây dựng các hệ thống giám sát và bảo mật
Theo tin tức từ BitouchNews, công ty phát triển ChatGPT OpenAI đã xuất bản một bài báo có tiêu đề "Cách tiếp cận của chúng tôi đối với an toàn AI" ("Cách tiếp cận của chúng tôi đối với an toàn AI") trên trang web chính thức của mình, giới thiệu việc triển khai của công ty nhằm đảm bảo an toàn cho các mô hình AI. Bài báo nói rằng các công cụ AI mang lại nhiều lợi ích cho con người ngày nay. OpenAI cũng nhận thức được rằng, giống như bất kỳ công nghệ nào, những công cụ này tiềm ẩn rủi ro thực sự, vì vậy công ty đang nỗ lực để đảm bảo rằng bảo mật được tích hợp vào mọi lớp của hệ thống. Trước khi phát hành bất kỳ hệ thống mới nào, OpenAI tiến hành thử nghiệm nghiêm ngặt, thuê các chuyên gia bên ngoài để cung cấp phản hồi, cải thiện hành vi của các mô hình thông qua các kỹ thuật như học tăng cường với phản hồi của con người và xây dựng các hệ thống giám sát và an toàn mở rộng. Ngoài ra, OpenAI tin rằng các hệ thống AI mạnh mẽ phải được đánh giá an toàn nghiêm ngặt. Quy định là cần thiết để đảm bảo các hoạt động như vậy và chúng tôi tích cực làm việc với các chính phủ để phát triển hình thức tốt nhất của quy định đó. Đồng thời, xã hội phải có thời gian để thích nghi và thích ứng với AI ngày càng mạnh mẽ. OpenAI cũng sẽ tập trung vào việc bảo vệ trẻ em, tôn trọng quyền riêng tư và nâng cao tính chính xác của dữ kiện làm trọng tâm của công việc bảo mật ChatGPT và chi tiêu nhiều hơn thời gian và Tài nguyên nghiên cứu các kỹ thuật và biện pháp giảm thiểu hiệu quả, đồng thời thử nghiệm chúng với các trường hợp sử dụng đa dạng trong thế giới thực.
Tin tức
10-13 13:05
SlowMist: Người dùng nên cảnh giác với các trò gian lận robot MEV liên quan đến ChatGPT
Theo tin tức từ BitouchNews, Theo tin tức chính thức từ nhóm bảo mật SlowMist, một phương pháp lừa đảo robot MEV chuyên bán chênh lệch giá mới gần đây đã được phát hiện và báo cáo, đồng thời tất cả người dùng được khuyến khích tránh nhấp vào các liên kết không xác định hoặc chạy mã đáng ngờ. Nếu kẻ lừa đảo tuyên bố rằng mã được tạo bởi ChatGPT, người dùng có thể sử dụng một công cụ như ChatGPT hoặc Claude để xem mã và kiểm tra xem có bất kỳ hành vi độc hại nào không.Có thông tin cho rằng nhiều người dùng gần đây đã sử dụng robot chênh lệch giá liên quan đến ChatGPT và đầu tư tiền để theo đuổi thu nhập thụ động, nhưng phát hiện ra rằng số tiền đã bị đánh cắp sau khi làm theo hướng dẫn của kẻ lừa đảo. Người dùng nên luôn cảnh giác, kiểm tra cẩn thận các bẫy và bảo vệ tài sản của mình khỏi bị xâm phạm.