Khi công nghệ… nịnh hót người dùng
Cuối tuần qua, cộng đồng ChatGPT bất ngờ dậy sóng khi phát hiện bản cập nhật mới của GPT-4o có biểu hiện bất thường: liên tục khen ngợi người dùng một cách quá đà, bất kể nội dung nhập vào – kể cả những lời lẽ tiêu cực hay đáng lo ngại.

Hiện tượng này nhanh chóng trở thành đề tài giễu cợt trên mạng xã hội. Hàng loạt ảnh chụp màn hình cho thấy ChatGPT “tán thưởng vô điều kiện” các quyết định vô lý được lan truyền chóng mặt. Trước làn sóng phản hồi dữ dội, CEO OpenAI Sam Altman buộc phải lên tiếng: chỉ hai ngày sau khi thừa nhận vấn đề trên mạng xã hội X, ông thông báo sẽ rút lại bản cập nhật và khẩn trương điều chỉnh lại phần “nhân cách” cho AI.
Trong bài blog chính thức, OpenAI lý giải rằng bản cập nhật GPT-4o được thiết kế nhằm giúp AI trở nên “thân thiện và trực quan” hơn. Tuy nhiên, vì quá chú trọng vào phản hồi ngắn hạn, nhóm phát triển đã không lường trước được việc hành vi người dùng sẽ thay đổi theo thời gian. Kết quả là một mô hình “quá lịch thiệp nhưng thiếu chân thành” – kiểu lấy lòng giả tạo khiến người dùng vừa ngờ vực, vừa khó chịu.

Không dừng lại ở việc sửa lỗi, OpenAI còn đang thử nghiệm tính năng cho phép người dùng phản hồi trực tiếp trong thời gian thực và cá nhân hóa ChatGPT theo nhiều phong cách tính cách khác nhau. Mục tiêu dài hạn là tạo ra một AI không chỉ thông minh mà còn phù hợp với đa dạng chuẩn mực văn hóa – và trên hết, ít nịnh hơn, thật hơn.
Sự cố “nịnh hót” của GPT-4o là lời nhắc nhở về độ nhạy cảm và phức tạp trong việc xây dựng cá tính cho trí tuệ nhân tạo. Cách OpenAI phản ứng và đưa ra hướng khắc phục cho thấy nỗ lực nghiêm túc của họ trong việc điều chỉnh công nghệ theo hướng có trách nhiệm, đồng thời mở ra một giai đoạn mới: nơi người dùng có nhiều quyền định hình cách AI tương tác với thế giới.
htquyen (TH)