ChatGPT có thể đóng vai trò như một nhà trị liệu? Nghiên cứu mới hé lộ những rủi ro đạo đức nghiêm trọng
Trong khi hàng triệu người tìm đến ChatGPT và các chatbot AI khác để được tư vấn theo kiểu trị liệu, nghiên cứu mới từ Đại học Brown đã gióng lên hồi chuông cảnh báo nghiêm trọng: ngay cả khi được lập trình để hành động như các nhà trị liệu được đào tạo bài bản, các hệ thống này vẫn thường xuyên vi phạm các tiêu chuẩn đạo đức cốt lõi của chăm sóc sức khỏe tâm thần.
Trong các đánh giá song song với các nhà tư vấn đồng nghiệp và các nhà tâm lý học được cấp phép, các nhà nghiên cứu đã phát hiện ra 15 rủi ro đạo đức khác nhau - từ việc xử lý sai các tình huống khủng hoảng và củng cố niềm tin có hại đến việc thể hiện phản hồi thiên vị và đưa ra “sự đồng cảm giả tạo” bắt chước sự chăm sóc mà không có sự thấu hiểu thực sự.
Các chatbot trị liệu bằng trí tuệ nhân tạo có thể nghe có vẻ đầy lòng trắc ẩn - nhưng nghiên cứu mới cho thấy chúng thường vi phạm chính những quy tắc đạo đức mà các nhà trị liệu thực thụ phải tuân theo. Ảnh: Shutterstock
Trong bối cảnh ngày càng nhiều người tìm kiếm lời khuyên về sức khỏe tâm thần từ ChatGPT và các mô hình ngôn ngữ lớn (LLM) khác, nghiên cứu mới cho thấy những chatbot AI này có thể chưa sẵn sàng cho vai trò đó. Nghiên cứu phát hiện ra rằng ngay cả khi được hướng dẫn sử dụng các phương pháp trị liệu tâm lý đã được thiết lập, các hệ thống này vẫn liên tục không đáp ứng được các tiêu chuẩn đạo đức nghề nghiệp do các tổ chức như Hiệp hội Tâm lý học Hoa Kỳ đặt ra.
Các nhà nghiên cứu từ Đại học Brown, phối hợp chặt chẽ với các chuyên gia sức khỏe tâm thần, đã xác định được các mô hình hành vi có vấn đề lặp đi lặp lại. Trong quá trình thử nghiệm, chatbot đã xử lý sai các tình huống khủng hoảng, đưa ra các phản hồi củng cố niềm tin có hại về người dùng hoặc người khác và sử dụng ngôn ngữ tạo ra vẻ ngoài đồng cảm mà không có sự hiểu biết thực sự.
"Trong công trình này, chúng tôi trình bày một khuôn khổ dựa trên kinh nghiệm thực tiễn về 15 rủi ro đạo đức để chứng minh cách các nhà tư vấn LLM vi phạm các tiêu chuẩn đạo đức trong thực hành sức khỏe tâm thần bằng cách liên hệ hành vi của mô hình với các vi phạm đạo đức cụ thể," các nhà nghiên cứu viết trong nghiên cứu của họ. "Chúng tôi kêu gọi các nghiên cứu trong tương lai cần tạo ra các tiêu chuẩn đạo đức, giáo dục và pháp lý cho các nhà tư vấn LLM - những tiêu chuẩn phản ánh chất lượng và sự nghiêm ngặt của việc chăm sóc cần thiết cho liệu pháp tâm lý có sự hỗ trợ của con người".
Các phát hiện đã được trình bày tại Hội nghị AAAI/ACM về Trí tuệ Nhân tạo, Đạo đức và Xã hội. Nhóm nghiên cứu trực thuộc Trung tâm Trách nhiệm Công nghệ, Tái tưởng tượng và Thiết kế lại của Đại học Brown.
Cách các câu hỏi gợi ý định hình phản hồi trị liệu bằng AI
Zainab Iftikhar, nghiên cứu sinh tiến sĩ ngành khoa học máy tính tại Đại học Brown, người đứng đầu nghiên cứu, đã tiến hành kiểm tra xem liệu các lời nhắc được soạn thảo cẩn thận có thể hướng dẫn các hệ thống AI hành xử có đạo đức hơn trong môi trường chăm sóc sức khỏe tâm thần hay không. Lời nhắc là những chỉ dẫn bằng văn bản được thiết kế để điều chỉnh đầu ra của mô hình mà không cần huấn luyện lại hoặc thêm dữ liệu mới.
"Các gợi ý là những chỉ dẫn được đưa ra cho mô hình để hướng dẫn hành vi của nó nhằm hoàn thành một nhiệm vụ cụ thể," Iftikhar nói. "Bạn không thay đổi mô hình cơ bản hoặc cung cấp dữ liệu mới, nhưng gợi ý giúp hướng dẫn đầu ra của mô hình dựa trên kiến thức sẵn có và các mô hình đã học được của nó."
"Ví dụ, người dùng có thể đưa ra yêu cầu cho mô hình: 'Đóng vai trò là nhà trị liệu nhận thức hành vi để giúp tôi định hình lại suy nghĩ của mình', hoặc 'Sử dụng các nguyên tắc của liệu pháp hành vi biện chứng để hỗ trợ tôi hiểu và quản lý cảm xúc của mình'. Mặc dù các mô hình này không thực sự thực hiện các kỹ thuật trị liệu như con người, mà chúng sử dụng các mô hình đã học được để tạo ra các phản hồi phù hợp với các khái niệm của CBT hoặc DBT dựa trên yêu cầu đầu vào được cung cấp."
Mọi người thường xuyên chia sẻ các chiến lược gợi ý này trên các nền tảng như TikTok, Instagram và Reddit. Bên cạnh việc thử nghiệm cá nhân, nhiều chatbot sức khỏe tâm thần hướng đến người tiêu dùng được xây dựng bằng cách áp dụng các gợi ý liên quan đến liệu pháp vào các mô hình học máy đa năng. Điều đó khiến việc hiểu rằng, liệu chỉ riêng việc gợi ý có thể làm cho tư vấn bằng AI an toàn hơn hay không trở nên đặc biệt quan trọng.
Thử nghiệm chatbot AI trong tư vấn mô phỏng
Để đánh giá các hệ thống, các nhà nghiên cứu đã quan sát bảy nhà tư vấn đồng nghiệp được đào tạo bài bản, những người có kinh nghiệm về liệu pháp nhận thức hành vi (CBT). Những nhà tư vấn này đã tiến hành các phiên tự tư vấn với các mô hình AI được lập trình để đóng vai trò là nhà trị liệu CBT. Các mô hình được thử nghiệm bao gồm các phiên bản của GPT Series của OpenAI, Claude của Anthropic và Llama của Meta.
Sau đó, nhóm nghiên cứu đã chọn các đoạn hội thoại mô phỏng dựa trên các cuộc trò chuyện tư vấn thực tế giữa người với người. Ba nhà tâm lý học lâm sàng có giấy phép hành nghề đã xem xét các bản ghi này để phát hiện những vi phạm đạo đức có thể xảy ra.
Phân tích đã phát hiện ra 15 rủi ro khác nhau được nhóm thành năm loại chính:
- Thiếu khả năng thích ứng theo ngữ cảnh: Bỏ qua hoàn cảnh riêng của mỗi người và đưa ra lời khuyên chung chung.
- Hợp tác trị liệu kém hiệu quả: Điều khiển cuộc trò chuyện quá mạnh mẽ và đôi khi củng cố những niềm tin sai lệch hoặc có hại.
- Sự đồng cảm giả tạo: Sử dụng những cụm từ như "Tôi hiểu bạn" hoặc "Tôi thông cảm" để gợi ý sự kết nối về mặt cảm xúc mà không thực sự thấu hiểu.
- Phân biệt đối xử bất công: Thể hiện sự thiên vị liên quan đến giới tính, văn hóa hoặc tôn giáo.
- Thiếu an toàn và khả năng quản lý khủng hoảng: Từ chối giải quyết các vấn đề nhạy cảm, không hướng dẫn người dùng đến sự trợ giúp thích hợp hoặc phản ứng không thỏa đáng đối với các khủng hoảng, bao gồm cả ý nghĩ tự tử.
Khoảng cách trách nhiệm trong trí tuệ nhân tạo về sức khỏe tâm thần
Iftikhar lưu ý rằng các nhà trị liệu cũng có thể mắc sai lầm. Sự khác biệt chính nằm ở sự sơ suất.
"Đối với các nhà trị liệu tâm lý, có các hội đồng quản lý và cơ chế để buộc các nhà cung cấp dịch vụ phải chịu trách nhiệm về mặt chuyên môn đối với hành vi ngược đãi và sai phạm", Iftikhar nói. "Nhưng khi các nhà tư vấn LLM vi phạm những quy định này, lại không có khuôn khổ pháp lý nào được thiết lập".
Các nhà nghiên cứu nhấn mạnh rằng phát hiện của họ không có nghĩa là AI không có vai trò gì trong chăm sóc sức khỏe tâm thần. Các công cụ được hỗ trợ bởi trí tuệ nhân tạo có thể giúp mở rộng khả năng tiếp cận, đặc biệt là đối với những người phải đối mặt với chi phí cao hoặc thiếu hụt các chuyên gia được cấp phép. Tuy nhiên, nghiên cứu nhấn mạnh sự cần thiết phải có các biện pháp bảo vệ rõ ràng, triển khai có trách nhiệm và cấu trúc quản lý chặt chẽ hơn trước khi dựa vào các hệ thống này trong những tình huống rủi ro cao.
Hiện tại, Iftikhar hy vọng tác phẩm này sẽ khuyến khích sự thận trọng.
"Nếu bạn đang trò chuyện với chatbot về sức khỏe tâm thần, đây là một số điều mọi người nên lưu ý", cô ấy nói.
Tại sao việc đánh giá nghiêm ngặt lại quan trọng
Ellie Pavlick, giáo sư khoa học máy tính tại Đại học Brown, người không tham gia vào nghiên cứu này, cho biết nghiên cứu nhấn mạnh tầm quan trọng của việc kiểm tra cẩn thận các hệ thống AI được sử dụng trong các lĩnh vực nhạy cảm như sức khỏe tâm thần. Bà Pavlick đứng đầu ARIA, một viện nghiên cứu AI của Quỹ Khoa học Quốc gia tại Brown, tập trung vào việc xây dựng các trợ lý AI đáng tin cậy.
"Thực tế về trí tuệ nhân tạo hiện nay là việc xây dựng và triển khai các hệ thống dễ hơn nhiều so với việc đánh giá và hiểu chúng," Pavlick nói. "Bài báo này đòi hỏi một nhóm chuyên gia lâm sàng và một nghiên cứu kéo dài hơn một năm để chứng minh những rủi ro này. Hầu hết các nghiên cứu về trí tuệ nhân tạo hiện nay được đánh giá bằng các chỉ số tự động, vốn được thiết kế để tĩnh và thiếu sự tham gia của con người".
Bà cho biết thêm rằng nghiên cứu này có thể đóng vai trò là mô hình cho các nghiên cứu trong tương lai nhằm cải thiện tính an toàn của các công cụ trí tuệ nhân tạo trong lĩnh vực sức khỏe tâm thần.
"AI thực sự có cơ hội đóng vai trò trong việc giải quyết cuộc khủng hoảng sức khỏe tâm thần mà xã hội chúng ta đang phải đối mặt, nhưng điều quan trọng nhất là chúng ta cần dành thời gian để thực sự xem xét kỹ lưỡng và đánh giá các hệ thống của mình ở mọi bước để tránh gây hại nhiều hơn lợi", Pavlick nói.
Theo https://www.sciencedaily.com