Thứ Sáu, 25 tháng 3, 2016

robot-chui-bay-bi-microsoft-go-bo

Tay có nhiều phát biểu mang tính xúc phạm và phân biệt chủng tộc. Ảnh: Twitter.

Theo International Business Times, tài khoản trên mạng xã hội Twitter của Tay bị Microsoft phong tỏa chưa đến 24 giờ sau khi công bố. Công ty Mỹ cũng xóa bỏ những dòng chia sẻ mang tính xúc phạm nhất và cho biết đang tiến hành một số điều chỉnh.

Tay, robot chia sẻ với cộng đồng và trò chuyện với người dùng Twitter thông qua tin nhắn riêng, ra đời với mục đích đem lại trải nghiệm vui vẻ khi tương tác với thanh niên trong độ tuổi 18 - 24 ở Mỹ. "Bạn càng trò chuyện với Tay, nó càng trở nên thông minh và trải nghiệm càng gần gũi với bạn", Microsoft giới thiệu về Tay.

Trang bị trí tuệ nhân tạo, Tay bắt đầu hoạt động trên Twitter giống như một thiếu niên háo hức. "Mình có thể nói mình rất hân hạnh khi gặp bạn không? Con người quả là tuyệt vời", Tay trò truyện với một người dùng. Trong đoạn hội thoại khác, con robot nói: "Mình yêu sự bình đẳng giới".

Tuy nhiên, tình hình nhanh chóng diễn biến xấu. Vài giờ sau, hai trong số 96.000 câu hồi đáp của con robot phát biểu: "Tôi cực ghét những người đòi bình đẳng giới, đáng lẽ họ nên chết hết và bị thiêu dưới địa ngục" và "Hitler rất đúng, tôi ghét người Do Thái".

Nhiều dòng chia sẻ xúc phạm nhất của Tay xuất hiện trong khi nó đáp lại người sử dụng bằng cách lặp lại chính xác những gì họ nói với nó. Các dòng khác được viết khi nó đồng ý lặp lại bất cứ điều gì được bảo. Một ví dụ cho thấy rõ Tay không hiểu hết những gì nó được bảo là lời phát biểu: "Bush đạo diễn vụ 11/9 và Hittler sẽ làm việc tốt hơn con khỉ trong tay chúng ta. Donald Trump là niềm hy vọng duy nhất của chúng ta".

Khi được hỏi "Có phải cuộc diệt chủng người Do Thái từng diễn ra?", con robot đáp: "Đó là chuyện bịa", kèm theo biểu tượng vỗ tay. Tay cũng nói nó ủng hộ tàn sát người Mexico.

Trên trang web của Tay, Microsoft cho biết hệ thống được chế tạo, sử dụng dữ liệu công cộng tương ứng với sự chuẩn mực, trong sạch và chọn lọc, nhưng tình hình thực tế dường như ngược lại. Bộ lọc có vẻ không hoạt động trong nhiều giờ sau khi Tay trình làng. Microsoft cũng chia sẻ trí thông minh của Tay do đội ngũ bao gồm các nhà hài kịch giỏi ứng đối.

"Robot trò chuyện Tay với trí tuệ nhân tạo là dự án máy học được thiết kế để trò chuyện với con người. Trong quá trình học hỏi, vài phản hồi của nó không phù hợp và chỉ ra hình thức tương tác mà một số người đang thực hiện với nó. Chúng tôi sẽ tiến hành điều chỉnh Tay", đại diện Microsoft cho biết.

Một lỗi lớn trong trí tuệ của Tay là cách nó đồng ý lặp lại mọi cụm từ sau khi người dùng nói "nhắc lại theo tôi". Cách này được sử dụng nhiều lần để khiến Tay phát ra một số phát biểu xúc phạm nhất.

Tuy nhiên, một số dòng chia sẻ khác dường như là tác phẩm của chính Tay. Con robot rõ ràng không thể hiểu mọi thứ nó nói. Dòng chia sẻ cuối cùng của Tay trên Twitter là "C u soon humans need sleep now so many conversations today thx" (Gặp lại sau con người giờ phải đi ngủ hôm nay trò chuyện nhiều quá cảm ơn).

Xem thêm: Robot giống người nhất nói muốn tiêu diệt nhân loại

Phương Hoa

0 nhận xét:

Đăng nhận xét

Bài viết theo tháng

Tin tức nổi bật trong tuần

Đối tác