Cách tấn công này được gọi là Adversarial Attack, nôm na là hacker sẽ sử dụng các âm thanh được chỉnh sửa để làm rối loạn khả năng xử lý của các trợ lý ảo thông minh như Apple Siri, Google Assistant và Amazon Alexa, từ đó cho phép tin tặc truy cập trực tiếp vào các tính năng mà trợ lý ảo cung cấp.
Sử dụng tiếng chim hót hay các mẫu chỉnh sửa bài hát hoặc tiếng nói để tai người không thể nghe được nhưng microphone của trợ lý ảo vẫn có thể tiếp nhận, hacker sẽ có thể truy cập và điều khiển trợ lý ảo trong khi người dùng thực sự không hề hay biết gì cả.
Các nhà nghiên cứu cũng cho rằng các tấn công có thể được phát bằng app hay một hình thức phát sóng nào đó, ví dụ trong những mẩu quảng cáo trên TV chẳng hạn. Từ đó cuộc tấn công có thể lan rộng rất nhanh và gây hậu quả khôn lường. Tin tặc lúc này dễ dàng nắm trong tay khả năng điều khiển cả hệ thống SmartHome mà bạn đang sử dụng, trong đó có cả hệ thống camera an ninh và các hệ thống báo động.
Một số đơn vị nghiên cứu đã thử nghiệm các bài test sử dụng âm thanh được chỉnh sửa để thử tấn công vào các trợ lý ảo, sau đó đưa ra kết luận rất đáng báo động: Hacker có thể ẩn giấu các lệnh tấn công trong tập tin âm thanh với khả năng thành công gần như 100%.
Hiện tại chúng ta chưa có nhiều cách phòng vệ cho kiểu tấn công này, tuy nhiên đáng mừng là quy trình thực hiện tấn công cũng khá rối rắm nên chưa chắc chúng có được sử dụng hay không. Tất cả những "cuộc tấn công" đều mới chỉ là thử nghiệm từ các nhà khoa học, tuy nhiên chúng ta cũng không nên chủ quan. Hãy kích hoạt ngay các tùy chọn an ninh cho trợ lý ảo của bạn ngay hôm nay nếu bạn chưa từng làm điều này. Cách đơn giản nhất là kích hoạt thêm tùy chọn hỏi mã PIN trước khi xác nhận thanh toán, như với Alexa chẳng hạn.
Nguồn digitaltrends
Không có nhận xét nào:
Đăng nhận xét