Dự báo năm 2018 trí tuệ nhân tạo sẽ giả mạo được người

03/01/2018 16:51

Nguy hiểm rình rập “con dao 2 lưỡi” từ sử dụng trí tuệ nhân tạo

Trí tuệ nhân tạo đã và đang mang lại những lợi ích lớn lao cho cuộc sống con người. Tuy nhiên, cần một sự kiểm soát chặt chẽ bởi trí tuệ nhân tạo đang tiến hóa nhanh hơn. Theo các chuyên gia, năm 2018 trí tuệ nhân tạo sẽ trở thành một vũ khí nguy hiểm trong tay tin tặc, học cách thích nghi và đột nhập vào các hệ thống phòng thủ, chiếm quyền kiểm soát các trợ lý giọng nói, thậm chí giả mạo là người.

Vị trí của trí tuệ nhân tạo trong đời sống

Cách đây 2 năm, vào mùa hè năm 2016, bảy nhóm hacker đã đến Las Vegas để tham gia vào giải đấu Cyber Grand Challenge, một sự kiện trong đó một số hệ thống tự động cạnh tranh bằng cách tấn công các hệ thống tự động khác. Kẻ chiến thắng là một cỗ máy có tên Mayhem, hiện đang được trưng bày tại Bảo tàng lịch sử quốc gia Mỹ ở Washington như là "chủ thể" không phải người đầu tiên giành vị trí đầu tiên trong cuộc thi hacker có uy tín.

Sau đó một năm, năm 2017 Mayem không thể lặp lại thành tích của mình và thua đội của người bởi không có đủ cách tiếp cận sáng tạo, trực giác và nguồn thúc đẩy. Nhưng năm 2018, theo dự báo, tất cả mọi thứ sẽ thay đổi. Tiến bộ trong lý thuyết và thực tiễn của trí tuệ nhân tạo, cũng như đột phá về an ninh mạng, cho thấy các thuật toán học máy sẽ trở thành các yếu tố chính trong việc phòng chống hacker và phản công trên mạng.

Theo Wired UK, hầu hết các chuyên gia về an ninh thông tin (theo một cuộc thăm dò của Cylance là 62% tổng số chuyên gia) đều tin rằng tin tặc sẽ sử dụng trí tuệ nhân tạo như một vũ khí không gian mạng vào năm 2018. Một nhà nghiên cứu dữ liệu của Endgame (nhà phân phối các hệ thống an ninh) đã trình bày hoạt động của một chương trình tự động nghiên cứu môi trường OpenAI Gym và chương trình này đã học được cách ẩn một tệp tin độc hại để phần mềm chống virus không thể phát hiện ra. Không khó để hình dung ra viễn cảnh nhờ một vài công cụ tương tự và những sáng tạo khác, trí tuệ nhân tạo sẽ bước lên một bậc thang tiến hóa cao hơn và tạo ra các hệ thống có thể tự thích ứng, tìm ra lỗ hổng máy tính và sử dụng chúng để gây hại cho con người.

Nguy hiểm rình rập “con dao 2 lưỡi”

Trí tuệ nhân tạo có thể mạo nhận một hệ thống thân thiện với người, ví dụ như một trợ lý giọng nói soạn lịch biểu cho con người chúng ta, kiểm tra thư tín của chúng ta và quản lý ngôi nhà thông minh của chúng ta. Nhưng sẽ ra sao nếu đó là một trí tuệ nhân tạo độc hại? Và sẽ ra sao nếu trí tuệ nhân tạo phát triển đến mức có thể mạo nhận người mà bạn tin cậy, ví dụ bằng cách giả mạo tiếng nói của người đó qua điện thoại, cách trình bày suy nghĩ của người đó trong một bài viết dưới dạng văn bản hoặc chữ ký số trên tài liệu?

Trí tuệ nhân tạo sẽ giả mạo được người

Có lẽ đó chính là lý do tại sao Cơ quan các dự án phòng thủ tiên tiến DARPA của Lầu Năm góc đã chi 3,6 triệu USD để phát triển một máy tính Morpheus không thể bị đột nhập. Các nhà khoa học tạo ra một “ổ cứng an toàn” di chuyển dữ liệu một cách ngẫu nhiên bên trong máy tính đồng thời xóa các phiên bản trước đó để kẻ tấn công không thể truy cập thông tin có giá trị ngay cả khi tìm thấy chúng.

Nhìn lại quá trình phát triển trí tuệ nhân tạo cho thấy những bước tiến vượt bậc của công nghệ, tuy nhiên song hành với lợi ích mà nó đem lại là những nguy hiểm rình rập. Bởi vậy luôn cần có những giải pháp kiểm soát, chế ngự để tránh những hậu quả khôn lường.

Theo Motthegioi.vn

Các tin khác

TikTok ứng dụng có an toàn không?

Trí tuệ nhân tạo AI: Lợi ích và những hệ lụy

Cách khắc phục iPhone gặp lỗi 'không khả dụng' chuẩn nhất

Thủ thuật cải thiện chất lượng hình ảnh khi họp trực tuyến

Gắn nhãn, truy xuất các tệp dữ liệu kỹ thuật số ở dạng ADN

Google Photos bắt đầu thu phí nếu lưu ảnh hơn 15 GB từ ngày 1/6

Tại sao 2 máy điện thoại cài Bluezone đặt cạnh nhưng không quét thấy nhau

Ứng dụng Bluezone hoạt động như thế nào để tìm người nghi nhiễm Covid-19

Không thể cài đặt ứng dụng trên iPhone phải làm sao?

Microsoft triển khai 'vũ khí' quan trọng chống virus SARS-CoV-2