Hãy trút bầu tâm sự của bạn cho một chatbot, và nó có thể nói: “Tôi hiểu những gì bạn đang trải qua”. Nhưng tất nhiên là không phải vậy, các nhà khoa học cho biết. Những hệ thống trí tuệ nhân tạo này mà một số chuyên gia thích gọi là "Mô hình ngôn ngữ lớn" (Large Language Models - LLMs), thực chất chỉ là những cỗ máy tính toán tiên tiến, có khả năng bắt chước con người rất giỏi. Giỏi đến mức khiến người ta dễ nghĩ rằng, chúng thực sự thông minh, thậm chí có ý thức.
TS Anil Seth - GS Khoa học thần kinh, tại Trung tâm Khoa học Ý thức, ĐH Sussex (Anh) định nghĩa: Ý thức là bất cứ điều gì thuộc về trải nghiệm, như màu sắc, mùi vị, cảm xúc, hay suy nghĩ. Trong khi, Andrzej Porębski, bác sĩ, thuộc Khoa Luật và Hành chính của ĐH Jagiellonian (Ba Lan) cho rằng, ý thức gắn liền với khái niệm về bản thân. Chẳng hạn như khả năng suy nghĩ về một điều gì đó, cảm nhận bản thân trong không gian và nhận thức được sự tách biệt giữa bản thân và không gian đó.
Trong khi đó, trí tuệ lại liên quan đến khả năng hành động. Ví dụ như giải một ô chữ, xử lý một tình huống gia đình phức tạp, hay đi bộ ra cửa hàng. Nói chung, đó là khả năng đạt được các mục tiêu phức tạp bằng những phương thức linh hoạt, theo Anil Seth — tức là khả năng hoàn thành công việc: "Ở con người, ý thức và trí tuệ dĩ nhiên có liên hệ với nhau. Khi chúng ta trò chuyện hay suy nghĩ, chúng ta nhận thức được điều đó. Nhưng việc hai thứ này đi cùng nhau ở con người không có nghĩa là chúng luôn luôn gắn liền với nhau”.
Các mô hình ngôn ngữ lớn (LLMs) được tạo ra để tạo ra những câu có cách diễn đạt “có khả năng đúng”, chứ không phải để tạo ra những câu chắc chắn đúng sự thật. Nói cách khác, chúng có thể đưa ra những phát biểu nghe rất hợp lý, nhưng chưa chắc đã đúng. Nghĩa là, bản thân thuật ngữ trí tuệ nhân tạo (AI) cũng không thật sự chính xác. Theo Andrzej Porębski, một hệ thống máy tính không “thông minh” theo cùng nghĩa như con người.
Ví dụ, các chatbot tạo sinh được huấn luyện để tạo ra các mẫu câu trả lời. Chúng rất giỏi trong hội thoại, nhưng đôi khi mắc những sai lầm vô lý trong các nhiệm vụ đơn giản và thường tính toán sai. Như Andrzej Porębski nhấn mạnh, các LLM này được thiết kế để tạo ra các câu có xác suất xuất hiện cao về mặt ngôn ngữ, chứ không phải để đảm bảo tính đúng đắn của thông tin. Nói cách khác, chúng tạo ra những phát biểu nghe có vẻ đúng, nhưng có thể không phải vậy.
Anil Seth cũng cho biết thêm: “Chúng giống như hấp thụ mọi thứ. Chúng biết mọi thứ nhưng lại không biết gì theo cách con người biết. Điều đó có nghĩa là chúng ta cần hết sức cẩn trọng trong cách sử dụng chúng".
Các chuyên gia cho rằng, dù AI có thể được xem là thông minh theo nghĩa nó có thể thực hiện một số nhiệm vụ, nhưng nó không có ý thức.
Andrzej Porębski cho biết: “Rất nhiều nhà nghiên cứu, trong đó có tôi, tin rằng ý thức đòi hỏi một thành phần sinh học mà các hệ thống AI không có”. Những chương trình này chỉ thực hiện các nhiệm vụ mà chúng được thiết kế để làm, chính con người mới là những người tạo ra sự liên tưởng sai lầm giữa kết quả mà chúng tạo ra và khái niệm ý thức. Ngay cả một chương trình máy tính cực kỳ phức tạp vẫn chỉ là một chương trình máy tính.
Còn theo Anil Seth: “Trực giác của chúng ta trong lĩnh vực này có thể rất dễ đánh lừa chúng ta. Khi chúng ta cho rằng một thứ thông minh thì nhất định phải có ý thức, chúng ta đang nhìn chúng qua lăng kính của con người. Chúng ta có xu hướng gán quá nhiều ý thức cho những thứ có hành vi giống với chúng ta”. Theo ông, một số người thấy ý tưởng AI có ý thức là hợp lý bởi vì họ hiểu theo nghĩa đen phép ẩn dụ rằng, não bộ là một chiếc máy tính. Anil Seth cũng lưu ý rằng, nhiều người đã bắt đầu nhìn nhận AI như thể nó có ý thức: “Khi một chatbot nói rằng, họ hiểu những gì bạn đang trải qua, nhiều người tin điều đó. Điều này rất nguy hiểm. Nếu bạn nghĩ rằng, mình đang tương tác với một thực thể có ý thức, bạn sẽ cư xử khác hoàn toàn so với khi bạn biết mình chỉ đang làm việc với một bảng tính. Khi đó, chúng ta trở nên dễ bị tổn thương về mặt tâm lý”. Ông lo ngại rằng, những người chấp nhận ảo tưởng về máy móc có ý thức có thể tin tưởng chúng nhiều hơn và dễ bị thuyết phục hơn.
Andrzej Porębski cũng đồng tình: “Một chương trình mà người dùng gán cho các đặc điểm của con người sẽ dễ thao túng họ hơn rất nhiều. Việc nhìn nhận các sản phẩm công nghệ như những thực thể có ý thức tiềm ẩn rủi ro ở nhiều cấp độ và không mang lại lợi ích nào”.