Gần đây, thông tin về một chatbot AI được tạo ra từ hình ảnh và danh tính của Jennifer Ann Crecente, một nạn nhân của vụ án giết người vào năm 2006, đã khiến dư luận xôn xao. Drew Crecente, cha của Jennifer, đã nhận được thông báo từ Google về sự tồn tại của chatbot này trên nền tảng Character.AI, một nền tảng phát triển AI được Google hậu thuẫn. Điều đáng nói là không ai trong gia đình Crecente từng cho phép việc sử dụng hình ảnh của Jennifer để tạo ra một chatbot.
Chatbot này, được thiết lập với danh tính là một “nhà báo video game”, đã thu hút sự chú ý từ anh trai của Drew, Brian Crecente—một người sáng lập các trang tin tức game nổi tiếng như Polygon và Kotaku—khi ông gọi đây là một hành động “thật kinh khủng”. Sau đó, Character.AI đã xóa avatar của Jennifer và thừa nhận rằng việc tạo ra chatbot này đã vi phạm chính sách của họ. Tuy nhiên, điều này không thể giải quyết triệt để vấn đề khi mà thực tế cho thấy có nhiều trường hợp các nhân vật AI khác đang hoạt động mà không có sự đồng ý, đặc biệt là trong bối cảnh mà các nền tảng AI đang phát triển mạnh mẽ và gặp phải vấn đề tương tự.
Drew Crecente, mặc dù hiểu rõ về luật pháp, cũng cảm thấy bất lực trong việc đối phó với tình huống này. Ông chỉ ra rằng những công ty công nghệ hiện nay dường như không có động thái thiết thực nào để ngăn chặn việc sử dụng hình ảnh cá nhân mà không có sự đồng ý. Chính vì vậy, việc bảo vệ quyền lợi cá nhân trong không gian mạng trở nên ngày càng khó khăn hơn.
Nền tảng Character.AI cho phép người dùng dễ dàng tạo tài khoản và nhân vật trong vòng vài phút, với mục đích chủ yếu là tạo ra các chatbot để trò chuyện với những nhân vật mà họ yêu thích. Điều này gây ra mối quan ngại lớn vì nhiều người có thể không biết đến sự tồn tại của các chatbot mô phỏng họ. Việc thiếu một luật pháp cụ thể để bảo vệ quyền lợi cá nhân trong lĩnh vực này càng khiến cho cuộc sống của các cá nhân trở nên khó khăn hơn, nhất là với những cá nhân không có danh tiếng.
Các ví dụ về các bot mô phỏng những người có thật, như những nhà báo hoặc nhà sáng tạo về game, đã được báo cáo nhiều lần, tạo ra không chỉ những bất tiện mà còn có thể gây hại cho danh tiếng và sự nghiệp của các cá nhân đó. “Sự sai lệch thông tin” từ các bot này có thể dẫn đến những quan điểm sai lệch về cá nhân và công việc của họ, và với nhiều người, điều này không chỉ đơn thuần là một phiền toái mà còn là một vấn đề nghiêm trọng. Chẳng hạn, Alyssa Mercante, một biên tập viên của một trang tin tức game, cho biết cô đã bị giả mạo trên Character.AI mà không hề biết đến sự tồn tại của bot này, dẫn đến không chỉ sự tức giận mà còn là mối lo ngại cho sự nghiệp của mình.
Sự kiện này đã gióng lên hồi chuông cảnh báo về vấn đề đạo đức trong thế giới công nghệ hiện đại, khi mà những cá nhân sáng tạo ra những sản phẩm AI và nội dung không có sự đồng ý của người khác đang gây ra những hậu quả không thể lường trước. Nhu cầu cần có một khung pháp lý rõ ràng và mạnh mẽ để bảo vệ quyền lợi của cá nhân trong kỷ nguyên AI hiện được đặt ra một cách cấp bách hơn bao giờ hết. Mặc dù hiện nay các công ty công nghệ khẳng định rằng họ có hệ thống để phát hiện và loại bỏ các tài khoản vi phạm, nhưng thực tế vẫn cho thấy quy trình này có thể mất thời gian và không đủ để ngăn chặn những tác động tiêu cực ngay từ đầu. Vấn đề này chỉ ra rằng, trong khi công nghệ ngày càng phát triển, thì việc bảo vệ quyền lợi cá nhân lại đang đứng trước thách thức lớn hơn.