Một ngày thứ ba, những nhà nghiên cứu từ Đại học Stanford và Đại học California, Berkeley đã công bố một bài báo nghiên cứu nói rằng GPT-4 đã thay đổi đầu ra của nó theo thời gian. Bài báo này đã làm nổi lên một tin đồn thường gặp nhưng chưa được chứng minh rằng mô hình ngôn ngữ AI đã trở nên tệ hơn trong việc mã hóa và tạo cấu trúc trong vài tháng qua. Một số chuyên gia không tin tưởng vào kết quả này, nhưng họ nói rằng sự không chắc chắn này chỉ ra một vấn đề lớn hơn về cách OpenAI xử lý các phiên bản mô hình của mình.
Trong một nghiên cứu có tên là “Cách thay đổi hành vi của ChatGPT theo thời gian?” được công bố trên arXiv, Lingjiao Chen, Matei Zaharia và James Zou đã nghi ngờ về hiệu suất liên tục của các mô hình ngôn ngữ lớn của OpenAI (LLMs), đặc biệt là GPT-3.5 và GPT-4. Sử dụng truy cập API, họ đã kiểm tra các phiên bản tháng 3 và tháng 6 năm 2023 của các mô hình này trên các nhiệm vụ như giải quyết vấn đề toán học, trả lời các câu hỏi nhạy cảm, tạo mã và suy luận hình ảnh. Điển hình nhất, khả năng của GPT-4 để nhận diện số nguyên tố có vẻ đã giảm mạnh mẽ từ mức độ chính xác 97,6% vào tháng 3 xuống chỉ 2,4% vào tháng 6. Kỳ lạ, GPT-3.5 cho thấy hiệu suất tăng trong thời gian tương tự.
Hồi đầu tháng 7 năm nay, những nhà khoa học của trung tâm nghiên cứu Carnegie Mellon đã phát hành bản tóm tắt các kết luận của họ về các phần mềm tự động học. Theo tóm tắt ấy, họ đã nêu ra các nhận định rằng chương trình ChatGPT có thể không còn nữa trong tương lai gần. Tuy nhiên, một số chuyên gia trong lĩnh vực công nghệ thông tin đã gặp khó khăn trong việc tin tưởng những kết luận này.
ChatGPT là một trong những ứng dụng công nghệ trí tuệ nhân tạo nhận dạng lời nói và cung cấp trả lời theo cấu trúc câu hỏi của người dùng. Những nhà nghiên cứu Carnegie Mellon cho rằng, do khả năng học của mô hình chatbot đang yếu hơn ngày càng, những hạn chế đã làm cho ChatGPT không còn bền vững nữa.
Mặc dù những kết luận này đã khẳng định sự hỏng hóc của ChatGPT, nhưng do thực tiễn cho thấy trình tự học cố định của ChatGPT là không thể giúp cho người dùng sử dụng chương trình này, một số chuyên gia không tin tưởng những kết luận đã được nêu ra.
Tuy nhiên, từ hứng khởi này những nhà nghiên cứu đã đưa ra những kết luận hay nghị quyết để thử nghiệm các công nghệ tự học như huấn luyện mạng neuron, các học động động vật. Một số chuyên gia vẫn tin tưởng rằng, bằng cách dùng công nghệ thuận tiện hơn, ChatGPT có thể có khả năng cung cấp những trả lời chính xác và phức tạp hơn cho người sử dụng.
Có thể thấy, cho dù có những kết luận cho thấy ChatGPT đang mất khả năng, nhưng vẫn còn một số chuyên gia tin tưởng rằng bằng cách thử các công nghệ mới, ChatGPT có thể có sức mạnh hơn theo tương lai. Việc xây dựng các trả lời chính xác và trọn vẹn hơn vẫn là mục tiêu dài hạn của công nghệ trí tuệ nhân tạo.