Một vụ kiện tổng hợp hành động mới bị cáo buộc ChatGPT tạo ra bởi OpenAI đã đánh cắp dữ liệu từ khắp mọi nơi trên internet, sau đó sử dụng dữ liệu đã đánh cắp để tạo ra các sản phẩm tự động phổ biến của mình. Vụ kiện, được Clarkson Law Firm đưa ra trong một tòa án Bắc California tuần này, chỉ là một trong những thách thức pháp lý mới nhất đe dọa trực tiếp vào lý tưởng kinh doanh của công ty khởi nghiệp ảnh hưởng này.
Netflix Passwords, ChatGPT Can’t Detect AI, and No More CoTweets | Editor Picks
Từ khi chuyển đổi từ một tổ chức nghiên cứu nhỏ bé thành một doanh nghiệp có lợi nhuận năm 2019, OpenAI đã trở thành một trong những công ty công nghệ hàng đầu. Khi nó khởi chạy ChatGPT vào tháng Mười một năm ngoái, công ty trở thành một tên tuổi trong gia đình.
Nhưng khi OpenAI cố gắng xây dựng doanh nghiệp của mình và xây dựng cơ sở cho sự mở rộng trong tương lai, tính phi tham gia của công nghệ mà nó bán có thể làm hỏng kế hoạch của mình. Với sự đột phá và sự mới lạ của ngành công nghệ AI, nó chỉ có nghĩa là các vấn đề pháp lý và quy định sẽ phát triển. Và nếu các thách thức pháp lý như được đưa ra tuần này được thực thi, chúng có thể làm giảm thành công của các sản phẩm phổ biến nhất của OpenAI và, lần lượt, có thể đe dọa ngành AI mới sinh mà quanh nó.
Cáo buộc của Clarkson, giải thích
Tố cáo chính trong vụ kiện Clarkson là mô hình kinh doanh của OpenAI được dựa trên việc ăn cắp. Vụ kiện cụ thể cáo buộc công ty đã tạo ra các sản phẩm của mình bằng cách sử dụng “thông tin riêng tư bị ăn cắp, bao gồm thông tin có thể định danh cá nhân, từ hàng trăm triệu người dùng internet, bao gồm cả trẻ em mọi độ tuổi, mà không có sự đồng ý hoặc biết đến.”
Được biết rằng các mô hình ngôn ngữ lớn của OpenAI – mà làm sống những nền tảng như ChatGPT và DALL-E – được đào tạo trên lượng dữ liệu lớn. Phần lớn dữ liệu này, công ty đã mở rộng
Trong thời gian qua, OpenAI đã giới thiệu một loại luật hành động lớp mới để giúp tối đa hóa hiệu quả làm việc của dịch vụ Machine Learning. Luật Hành Động Lớp mới có thể được sử dụng rộng rãi trên cả m, và công nghệ tích hợp trong nhiều lĩnh vực mix genetics, quản lý dữ liệu, giáo dục nhân văn, marketing, và các lĩnh vực khác. Tuy nhiên, khi thêm mới luật hành động lớp này vào mô hình dịch vụ OpenAI, cũng như các bên liên quan, đã đem lại các rắc rối pháp lý mới.
Nhìn chung, trong khi sự xuất hiện của luật hành động lớp đã mang lại những lợi ích về dịch vụ máy tính, nó cũng đưa lại những rắc rối về câu chuyện về pháp lý. Bên cạnh đó, luật này cũng đôi khi bị hiểu lầm là để đo lường phạm trù luật hành động hay phổ biến cảm xúc trong thế giới, nhưng thay vào đó nó chỉ để cải thiện các mô hình trong các lĩnh vực như nghiên cứu y học hoặc y tế.
Để tránh bị quy định phạm luật, bên thứ ba có thể muốn tránh sử dụng các luật hành động lớp này trong dịch vụ của mình mà không phải chịu bất kỳ trách nhiệm pháp lý. Trong trường hợp này, có những tuân thủ và cam kết mạnh mẽ của các bên thứ ba cố gắng để hạn chế rủi ro trách nhiệm pháp lý có thể giảm thiểu associted với việc sử dụng luật hành động lớp.
Do đó, khi sử dụng luật hành động lớp trong mô hình dịch vụ máy tính, OpenAI cần phải tuân thủ các chính sách và cam kết mạnh mẽ về pháp lý và bảo vệ người dùng. Ngoài ra, điều này cũng sẽ giúp tăng cường bảo mật cho dịch vụ máy tính của OpenAI.