OpenAI đã làm gì để đưa ChatGPT trở lại Italy?
Đúng 28 ngày sau khi ban lệnh cấm, Cơ quan phụ trách bảo vệ dữ liệu của Italy đã cho phép ChatGPT hoạt động ở nước này một lần nữa. Thông tin này đã được chính CEO OpenAI, Sam Altman tiết lộ trên tài khoản Twitter cá nhân. Ông cho biết thêm ChatGPT đã được điều chỉnh để tuân thủ Quy định bảo vệ dữ liệu chung (GDPR) của Liên minh châu Âu (EU).

Cụ thể, OpenAI đã thêm một loại biểu mẫu mới cho phép người dùng EU gửi yêu cầu xóa thông tin cá nhân theo đung GDPR. Bên cạnh đó, công ty cũng cung cấp cách liên hệ với nhân viên được GDPR ủy quyền để người dùng có thể nhận được sự hỗ trợ khi cần thiết.
Được biết, OpenAI sẽ bổ sung các bản cập nhật bảo vệ quyền riêng tư ngay trong tuần này. Khi bật tính năng này, người dùng ChatGPT tại khu vực EU có thể xóa lịch sử trò chuyện. Điều này có thể ngăn chặn OpenAI thu thập thông tin người dùng để đào tạo ChatGPT hay bất cứ ứng dụng AI nào khác.
Xem thêm: Siêu AI ChatGPT tiếp tục bị điều tra tại châu Âu
Không chỉ có vậy, phần mềm ChatGPT sẽ yêu cầu người dùng xác minh độ tuổi, ít nhất họ phải trên 18 tuổi. Trong trường hợp những khách hàng có độ tuổi từ 13 đến 17, họ sẽ phải có sự chấp nhận của cha mẹ hoặc người giám hộ hợp pháp thì mới được dùng ChatGPT.
ChatGPT từng đối mặt với làn sóng “tẩy chay” ở nhiều nước
Hôm 31/3, Cơ quan giám sát phụ trách bảo vệ dữ liệu của Italy ra thông báo tạm thời chặn ChatGPT hoạt động trên phạm vi nước này. Đồng thời, mở cuộc điều tra OpenAI với cáo buộc vi phạm quy tắc bảo mật dữ liệu. Động thái này diễn ra ngay sau khi một người dùng ChatGPT bị lộ dữ liệu cá nhân vào ngày 20/3.

Cùng lúc đó, OpenAI phải giải quyết các yêu cầu pháp lý của Italy trong vòng 20 ngày, tuy nhiên cơ quan giám sát phụ trách bảo vệ dữ liệu đã nới lỏng thời hạn cho công ty này đến 30/4. Sau khi nhận thấy thái độ chấp hành GDPR của OpenAI, Italy bày tỏ thái độ ủng hộ các biện pháp của công ty này. Dĩ nhiên, cơ quan giám sát phụ trách bảo vệ dữ liệu vẫn sẽ để mắt đến mọi hoạt động của OpenAI trong tương lai. Ủy ban Bảo vệ dữ liệu châu Âu sẽ tiến hành tìm hiểu thực tế ChatGPT sẽ khi nó cập nhật các tính năng bảo vệ thông tin cá nhân.
Không riêng gì Italya, trong thời gian qua, OpenAI gặp nhiều thách thức tại Mỹ và nhiều nước châu Âu như Đức, Pháp, Tây Ban Nha,... Chưa rõ trong tương lai, công ty này có thực hiện các giải phép tương tự Italy đối với các quốc gia còn lại đang xem xét ban lệnh cấm hay không. Suốt 28 ngày qua, chỉ có Nhật Bản lên tiếng ủng hộ OpenAI vào hôm 10/4 sau khi CEO của công ty có chuyến công tác tại nước này.
Xem thêm: Nhật Bản ủng hộ ChatGPT trước làn sóng tẩy chay ở châu Âu
Chánh văn phòng Nội các, Hirokazu Matsuno tuyên bố Nhật Bản sẽ nghiên cứu tích hợp ứng dụng ChatGPT vào hệ thống chính phủ. Tuy nhiên, nước này ra thêm điều kiện là OpenAI phải giải quyết các vấn đề về quyền riêng tư và an ninh mạng. Khi đó, Sam Altman đã trò chuyện với Hirokazu Matsuno về tiềm năng của ChatGPT cũng như cách loại bỏ các khía cạnh tiêu cực của chatbot AI này. Không chỉ có vậy, họ cũng cân nhắc các rủi ro AI có thể gây ra cho con người và cách tối đa hóa lợi ích của công nghệ này. Atlman cho biết đội ngũ kỹ sư của OpenAI sẽ học tập thêm tiếng Nhật để giúp việc giao tiếp với chuyên gia tại nước này dễ dàng và thuận lợi hơn: “Chúng tôi sẽ sớm trở lại”.
EU đang thúc đẩy Đạo luật AI như thế nào?
Sau những tranh cãi về ChatGPT hay nhiều ứng dụng AI khác, các nhà lập pháp ở EU thúc đẩy một dự thảo luật mới được thiết kế để kiểm soát công nghệ này và các công ty phát triển nó trong một cuộc bỏ phiếu vào ngày 27/4.

Chi tiết của dự luật sẽ được hoàn thiện trong vòng thảo luận tiếp theo giữa các cơ quan lập pháp và các quốc gia thành viên. Mặc dù vậy, như hiện tại, các công cụ AI sẽ sớm được phân loại theo mức độ rủi ro của chúng. Các mức độ rủi ro từ tối thiểu và giới hạn đến không thể chấp nhận được.
Nếu các ứng dụng AI vi phạm đạo luật trên sẽ không bị cấm hoàn toàn, thay vào đó, chứng sẽ phải tuân thủ các điều luật an ninh mạng một cách minh bạch và chặt chẽ hơn. Đặc biệt, các công cụ AI tổng quát, bao gồm ChatGPT và Midjourney , sẽ có nghĩa vụ tiết lộ mọi hoạt động sử dụng tài liệu có bản quyền trong đào tạo AI.