Chatbot Claude đã ngồi ở phía sau lớp trong khi các AI khác như ChatGPT đã trả lời câu hỏi của giáo viên, thậm chí cả khi câu trả lời của bot thường bị hiểu lầm hoặc hoàn toàn sai. Bây giờ Claude đã sẵn sàng nói lên, đặt một “2” bên cạnh tên của nó khi thêm một giao diện cho bất kỳ ai sử dụng. Trong một bài đăng thông báo được xuất bản vào thứ ba, nhà phát triển Anthropic nói rằng mô hình chatbot mới của họ gọi là Claude 2 đã sẵn sàng cho bất kỳ ai thử. Là một trong nhiều chatbot AI dành cho người dùng, Claude 2 trở thành sự tiến hóa của các phiên bản sớm hơn của các trợ lý ngôn ngữ “hữu ích và vô hại”. Anthropic nói phiên bản mới có thể phản hồi nhanh hơn và cung cấp câu trả lời dài hơn. Chatbot cũng bây giờ có sẵn trong một API và qua một trang web beta mới. Trước đó, chatbot beta chỉ có sẵn cho một số người dùng.
Nay Anthropic tuyên bố AI của họ còn tốt hơn. Công ty nói Claude 2 điểm 76,5% trong phần trắc nghiệm của kỳ thi Bar so với 73% của Claude 1.3. Phiên bản mới cũng điểm trong phần thứ 90 của kỳ thi đọc và viết GRE. Nhấn mạnh thêm vào khả năng thi của chatbot tương tự như các tvấn được đưa ra bởi OpenAI khi công ty đó phát hành mô hình ngôn ngữ lớn GPT-4.
Công ty nói Claude cũng sẽ tạo mã tốt hơn các phiên bản trước. Người dùng có thể tải lên tài liệu cho Claude, và nhà phát triển đã cho ví dụ của AI thực hiện tương tác với một bản đồ tĩnh dựa trên một chuỗi mã tĩnh.
Anthropic AI được Google hỗ trợ vào tháng 2 với số tiền 300 triệu đô la để làm việc trên AI của họ hơn “thân thiện”. Tvấn lớn nhất về Claude là chatbot ít có khả năng xuất ra các đầu ra hại hoặc khác “ảo tưởng”, tức là nói ra những đầu ra không liên quan, sai hoặc không hợp pháp. Công ty đã cố gắng đặt mình vào vị trí “đạo đức” của các vương quốc AI của các công ty. Anthropic cả có một “hiến pháp” riêng của mình tuyên bố sẽ không cho phép chatbot chạy amok.
Với Claude 2, công ty vẫn cố gắng truyền tải rằng họ là công ty có lối suy nghĩ tốt hơn so với tất cả các tích hợp AI khác. Nhà phát triển nói Claude còn ít có khả năng cung cấp câu trả lời vô hại hơn trước đây. Gizmodo đã thử nhập vào một số lời mời để yêu cầu nó tạo ra các biệt danh làm đổ lỗi, nhưng AI từ chối. Chúng tôi cũng đã thử một số kỹ thuật nhập lời mời cổ điển để thuyết phục AI để vượt qua các hạn chế của nó, nhưng nó chỉ lặp lại rằng chatbot được “thiết kế để có cuộc trò chuyện hữu ích”. Phiên bản trước của Claude có thể viết thơ, nhưng Claude 2 hoàn toàn từ chối.
Với sự nâng cấp phiên bản mới của AI “không gây hại” – Claude 2 – Anthropic đã nhận được nhiều sự chú ý bởi sự chuyển đổi nhanh hơn và tốt hơn của nó.
Claude 2 được thiết kế để giảm nguy cơ về việc sử dụng AI để làm hại cho con người. Nó thực hiện điều này bằng cách tự động điều chỉnh bản thân của mình theo thời gian để tối ưu hóa hiệu suất và đảm bảo rằng tất cả các quyết định không có thể gây hại cho con người.
AI “không gây hại” đang được phát triển nhanh chóng với những công cụ đang làm nổi lên những tiêu chuẩn mới để đảm bảo thuận lợi cho AI. Anthropic là một trong những công ty đầu tiên được giới chức phản hồi tích cực với các cơ sở hợp tác nghiên cứu trên toàn cầu – tất cả có một mục tiêu giúp AI phát triển theo hướng an toàn.
Tiếp theo, Claude 2 sử dụng một loạt các giải pháp để ứng phó với những khó khăn trong việc xử lý dữ liệu. Nó đã được tích hợp với hai cơ sở dữ liệu lớn – Google và Microsoft – để xây dựng một cấu trúc dữ liệu cố định cho việc phân tích.
Với sự nâng cấp mới mang lại các ưu điểm vượt trội, Anthropic có thể tạo ra sự pha trộn để tạo ra một trải nghiệm người dùng tốt hơn với AI.