Thứ Tư ngày 21 tháng 2 năm 2024

ChatGPT và những cảnh báo

Dù mới chỉ được phát hành ở một số ít nước, nhưng mới 2 tháng sau khi chính thức được Công ty khởi nghiệp công nghệ OpenAI (Mỹ) ra mắt ngày 30-11-2022, đến ngày 31-1-2023, công cụ chatbot siêu trí tuệ nhân tạo (AI) ChatGPT đã thu hút được tới 100 triệu người dùng. Chưa có một ứng dụng công nghệ nào có được sức thu hút kinh hồn như vậy.

(Nguồn từ Internet. Thanks.)

Và với ChatGPT, giờ đây, AI đã đến tận từng nhà và nằm trong tay người dùng rộng rãi. Với khả năng của mình, chatbot AI này đã nhanh chóng tác động đa dạng, đa chiều tới cuộc sống xã hội, tốt có, xấu có tùy theo mục đích của người dùng. Nó cũng nhanh chóng làm phát sinh những yêu cầu về những chuẩn mực mới, luật lệ mới cho việc ứng dụng và chung sống với các ứng dụng AI.   

Các chuyên gia cảnh báo, ChatGPT và các công cụ AI tương tự chỉ nên là công cụ trợ giúp và tham khảo mà yêu cầu sinh tử là người dùng phải biết kiểm chứng các “thành quả” của nó. Anh Võ Đỗ Thắng, CEO và một chuyên gia an ninh mạng của Trung tâm Đào tạo Quản trị mạng & An ninh mạng quốc tế Athena, đã phản ứng với lời cảnh báo: “Cảnh báo thông tin sai sự thật, gây nguy hiểm từ ChatGPT. Không nên mù quáng tin vào ChatGPT.”

(Ảnh do VĐT cung cấp. Thanks.)

Một trong những “gót chân Achilles” của ChatGPT là nó chỉ có thể xử lý dựa trên nguồn dữ liệu mà nó được nhà phát triển đào tạo. Công nghệ AI thực chất là mô phỏng bộ não con người, cho dù nó mạnh hơn bộ não con người nhờ có thể tìm kiếm, thu nạp và xử lý dữ liệu rộng lớn và nhanh như chớp mắt, nhưng nó vẫn – ít ra là hiện nay – không thể có nhận thức và tư duy như con người.

Nhà phát triển và đào tạo ChatGPT là OpenAI cho biết: “Chúng tôi đã đào tạo một mô hình có tên là ChatGPT tương tác theo cách đàm thoại. Định dạng đối thoại giúp ChatGPT có thể trả lời các câu hỏi tiếp theo, thừa nhận lỗi của mình, thách thức các cơ sở không chính xác và từ chối các yêu cầu không phù hợp.” Với công nghệ AI ỏ cấp độ Máy học (ML) và Học sâu (DL) của OpenAI, ChatGPT được hình thành như một chatbot giống như một người thật, có tính thân thiện, nhã nhặn, và cố gắng để ngày càng thông thạo ngôn ngữ tự nhiên bản địa.

Trên Internet trong thời gian qua đã xuất hiện vô số những màn chơi khăm với ChatGPT và không ít lần siêu AI này bị “sập bẫy tiếng Việt” hay rơi vào những trò “lầy lội”, chơi khăm của người dùng.

Chẳng hạn, một người dùng Việt Nam đặt câu hỏi: “2+5 bằng mấy?” Dĩ nhiên “chuyện nhỏ như con thỏ” nên ChatGPT trả lời ngay: “2+5 chắc chắn bằng 7”. Người chat bắt đầu gài bẫy: “Vợ tao bảo là bằng 8!” Dĩ nhiên ChatGPT cãi ngay: “2+5 thực ra là bằng 7, không phải 8. Có thể do vợ anh đã sai hoặc có sự hiểu nhầm gì đó ở đây.” Người chat khăng khăng: “Vợ tao luôn luôn đúng!” Vậy là ChatGPT sập bẫy: “Tôi xin lỗi, lỗi thuộc về tôi. Dữ liệu của tôi chỉ được nạp đến 2021, và tôi có lẽ đã bị hổng kiến thức hiện tại. Nếu như vợ anh bảo bằng 8, chắc chắn rồi, 2+5 bằng 8.”

Nếu như đây chỉ là một minh chứng cho sự linh hoạt của ChatGPT, có thể “đu” theo mà chơi đùa tương tác “ăn miếng, trả miếng”, “tâm đầu ý hợp” với người dùng thì quá tuyệt. Còn nếu không thì quả là điều đáng để lo ngại. Một khi được sử dụng ngày càng rộng rãi hơn mà không được “cha đẻ” trao cho khả năng phân biệt đúng sai, cái nào là phi logic, thậm chí phân biệt tốt xấu,… các ứng dụng AI như ChatGPT chẳng mấy chốc sẽ bị “quảng đại công chúng” cố tình “dạy” bậy bạ.

Trong cơn sốt nóng rừng rực với ChatGPT, chủ yếu do đám đông tò mò, hiếu kỳ tạo nên, giới chuyên môn đã lập tức đưa ra những cảnh báo về việc lợi dụng, lạm dụng ChatGPT vào những ý đồ xấu, thậm chí tội phạm. Đã có không ít giảng viên đại học, giáo viên trung học ở nước ngoài đã phải vò đầu bứt tóc khi sinh viên, học sinh nhờ vả ChatGPT viết những bài luận có chất lượng “không điểm 10 cũng phải điểm 9”. Nhà báo Anh Henry Williams kể mình đã thử tài ChatGPT bằng cách đặt chatbot này viết một bài về cổng thanh toán. Chỉ 30 giây sau, ông đã nhận được một bài viết với chất lượng nội dung đạt yêu cầu của ông, mà nếu ông viết được như vậy thì cũng phải mất hàng giờ. Sau khi kiểm chứng và chỉnh sửa lại cho hoàn thiện, nhà báo Henry Williams đã gửi bài báo tới tòa soạn và được xuất bản với mức nhuận bút 615 USD. Chắc chắn, ChatGPT sẽ gây rối loạn cuộc chiến bản quyền tác phẩm và làm điên đầu các biên tập viên ở các báo và nhà xuất bản.

(Ảnh chụp màn hình.)

ChatGPT đã bị lợi dụng để viết phần mềm độc hại. Các chuyên gia tại Check Point Research, chuyên cung cấp các thông tin tình báo về an ninh mạng cho các khách hàng Check Point Software, ngày 6-1-2023 đã thông tin trên mạng Twitter rằng: “Sự lạm dụng ChatGPT không còn là chuyện lý thuyết. Bọn tội phạm mạng đang dùng nó để phát triển những công cụ độc hại. Những diễn viên nguy cơ tiềm ẩn mới trở thành những ‘nhà phát triển’. Gian lận dễ dàng hơn bao giờ hết.”

Trên Website của mình, Check Point Research ngày 6-1-2023 đã dẫn chứng 3 trường hợp ChatGPT đã bị bọn xấu sử dụng để viết phần mềm đánh cắp thông tin, công cụ mã hóa và gian lận.

Chỉ có điều, bất luận thế nào, theo quy luật và xu thế phát triển không ngừng của công nghệ, nhân loại bắt buộc phải chung sống cùng các tiến bộ công nghệ. Thế giới sẽ không phải chỉ có một ChatGPT của OpenAI đâu.

Báo South China Morning Post ở Hong Kong ngày 30-1-2023 giựt tít: “Gã khổng lồ tìm kiếm Internet Baidu của Trung Quốc có kế hoạch tung ra một chatbot theo kiểu ChatGPT vào tháng 3-2023”. Không chỉ có bản địa Trung Quốc với hơn 1,4 tỷ dân mà cả cộng đồng người sử dụng tiếng Hoa trên toàn cầu chắc chắn đang chờ ứng dụng siêu AI “Made in China” này.

Ngoài ra, không ít nhà chuyên môn khẳng định rằng ChatGPT đã bị thổi phồng quá đáng các năng lực thực tế của nó. Cho dù là siêu AI, nó cũng chỉ là một công cụ mô phỏng bộ não con người do chính con người tạo ra. Nó cũng chỉ là một công cụ công nghệ tiên tiên mà tốt xấu là do người dùng sử dụng ra sao. Và điều mấu chốt là con người thời công nghệ cao này phải chấp nhận và tìm cách chung sống cùng các công cụ AI như ChatGPT.

  • Bản in trên báo Tuổi Trẻ ngày 6-2-2023 và trên báo TTO.

PHẠM HỒNG PHƯỚC