Trang nhất
  Xã Luận
  Đọc Báo Trong Nước
  Truyện Ngắn
  Kinh Tế
  Âm vang sử Việt
  Tin Thể Thao
  Y Học
  Tâm lý - Xã hội
  Công Nghệ
  Ẩm Thực

    Diễn Đàn Biển Đông
Mỹ đối phó “vành đai” của Trung Quốc
    Hình Ảnh Quê Nhà - Video Clip
VIETNAM'S CULTURE
    Tin Thế Giới
Chiến lược mới của Mỹ chống Nga
    Tin Việt Nam
Thủ tướng Pháp thăm chính thức Việt Nam với 3 mục tiêu then chốt
    Tin Cộng Đồng
Hai miền Triều Tiên tổ chức đoàn tụ cho những gia đình ly tán
    Tin Hoa Kỳ
'Voi' và 'lừa' trên chính trường Mỹ
    Văn Nghệ
Đôi nét về sự khác biệt của tranh sơn mài và tranh sơn dầu
    Điện Ảnh
Giới phê bình chê bai gay gắt với 'Fantastic Beasts 2'
    Âm Nhạc
Mang nhạc hàn lâm đến với công chúng trẻ
    Văn Học
Nỗi buồn chiến tranh hay phía tây không có gì lạ

Thông Tin Tòa Soạn

Tổng biên tập:
Tiến Sĩ
Nguyễn Hữu Hoạt
Phụ Tá Tổng Biên Tập
Tiến Sĩ
Nhật Khánh Thy Nguyễn
Tổng Thư ký:
Quách Y Lành




   Công Nghệ
Nguy cơ AI trở thành “vũ khí” tiếp tay cho tin tặc
Trí thông minh nhân tạo (AI) đang trở thành một công cụ đắc lực giúp nâng cao sự hiệu quả công việc đồng thời giảm sức lao động của con người trong mọi lĩnh vực của đời sống. Tuy nhiên, đằng sau những tiện ích mà công nghệ này mang lại, người tiêu dùng cũng đang đứng trước nguy cơ bị tin tặc khai thác AI cho các mục đích ăn cắp thông tin cá nhân, tống tiền thậm chí tấn công bạo lực.

 

Tin tặc có thể sử dụng AI như là công cụ hỗ trợ đắc lực cho các vụ tấn công lừa đảo (phishing)

Mặc dù công nghệ AI (artificial intelligence) chỉ mới trong giai đoạn chớm nở nhưng hãng nghiên cứu thị trường IDC dự báo chi tiêu toàn cầu cho các hệ thống AI và nhận thức có thể đạt 57,6 tỉ đô la Mỹ vào năm 2021.

Hồi đầu năm nay, trò chuyện tại một sự kiện công nghệ ở San Francisco (Mỹ), Giám đốc điều hành Google Sundar Pichai, nói rằng trong tương lai AI còn quan trọng hơn và có tác động sâu sắc đến cuộc sống con người hơn cả điện và lửa. Song cũng có nhiều người nghi ngờ AI. Thiên tài vật lý người Anh Stephen Hawking, người vừa qua đời hồi tháng 3, từng cảnh báo rằng sự xuất hiện của AI có thể là sự kiện tồi tệ nhất trong lịch sử văn minh nhân loại trừ phi xã hội tìm ra cách để kiểm soát sự phát triển của nó theo hướng đúng đắn.

Nguy cơ AI bị lạm dụng để tấn công mạng

AI có thể tự học hỏi cách để phát hiện ra những hành vi đáng ngờ trên Internet, ngăn chặn những kẻ xấu thực hiện vụ tấn công mạng song công nghệ này cũng có nguy cơ bị bọn chúng khai thác để làm tăng mức độ tinh vi trong vụ tấn công mạng.

Tại cuộc hội nghị Black Hat USA 2018 ở thành phố Las Vegas (Mỹ) hôm 8-8, IBM Research, đơn vị nghiên cứu của hãng công nghệ IBM đã chứng minh nguy cơ này. Theo IBM Research, kỷ nguyên AI có thể dẫn đến nguy cơ “vũ khí hóa” trí tuệ nhân tạo. Để nghiên cứu viễn cảnh AI một ngày nào đó có thể trở thành một công cụ lợi hại trong “kho vũ khí” của những kẻ xấu, IBM Research đã phát triển một công cụ tấn công mạng sử dụng sức mạnh của AI. Công cụ này, có tên gọi DeepLocker, là một phần mềm độc hại có khả năng loại bỏ các hệ thống bảo vệ vững mạnh nhất và thực hiện các vụ tấn công có trọng điểm. DeepLocker có khả năng phân tích dữ liệu được thu thập từ nhiều nguồn chẳng hạn mạng xã hội hay các công cụ theo dõi trực tuyến.

Nó được gài vào các hệ thống như phần mềm hội nghị video trực tuyến và “nằm im” cho đến khi xác định được mục tiêu tấn công bằng các công nghệ liên quan đến AI như nhận dạng khuôn mặt, nhận dạng giọng nói và xác định vị trí địa lý. Một khi mục tiêu đã được xác định, DeepLocker sẽ phát động tấn công. “Bạn có thể hình dung năng lực này tương tự như một vụ tấn công bắn tỉa, khác với tấn công tự động không xác định mục tiêu cụ thể và chờ đợi kết quả như các phần mềm độc hại truyền thống. DeepLocker được thiết kế để có thể “tàng hình”, tránh bị phát hiện cho đến khi vào giây phút cuối khi mục tiêu cụ thể được ghi nhận ”, tiến sĩ Marc Ph. Stoecklin, chuyên gia an ninh mạng ở IBM Research, nói.

Mạng lưới nơ-ron sâu của DeepLocker sẽ thiết lập các điều kiện để kích hoạt tấn công. Nếu các điều kiện này được không được đáp ứng và mục tiêu chưa được tìm thấy, phần mềm độc hại vẫn nằm bất động. Để chứng minh năng lực lợi hại của DeepLocker, các nhà nghiên cứu của IBM Research đã gài mã độc đòi tiền chuộc WannaCry được điều khiển bởi DeepLocker vào một ứng dụng hội nghị video trực tuyến. WannaCry hoàn toàn không bị phát hiện bởi các công cụ chống virus và mã độc. Nó tấn công ngay khi xác định mục tiêu bằng cách nhận dạng mục tiêu thông qua hình ảnh khuôn mặt xuất hiện trên màn hình. Khi nạn nhân ngồi trước máy tính và sử dụng ứng dụng hội nghị video trực tuyến, camera trên máy tính sẽ truyền hình ảnh khuôn mặt nạn nhân vào ứng dụng, đúng lúc đó, mã độc WannaCry sẽ được bí mật kích hoạt, chiếm quyền kiểm soát máy tính của nạn nhân. Dù trên thực tế, các vụ tấn công mạng sử dụng các phần mềm độc hại tương tự như DeepLocker chưa xuất hiện nhưng IBM Research cho rằng cần phải nâng cao nhận thức về các cuộc tấn công mạng dạng này để chuẩn bị những phương án phòng vệ trong tương lai.

Biến robot, xe tự lái thành vũ khí

Hồi đầu năm nay, một nhóm 26 chuyên gia từ các trường đại học danh tiếng như Oxford, Cambridge và Yale cũng như các tổ chức nghiên cứu uy tín như OpenAI, Viện Tương lai nhân loại, Trung tâm An ninh Mỹ... đã công bố một bản báo cáo cảnh báo nguy cơ sử dụng trí tuệ nhân tạo cho các mục đích gây hại. Một trong những viễn cảnh đáng lo ngại làm bản báo cáo nêu ra là bọn tội phạm, bọn khủng bố có thể khai thác các tính năng AI của các thiết bị công nghệ cao như robot, xe tự lái hay thiết bị máy bay không người lái để biến chúng thành vũ khí thực sự.

Hãy thử hình dung nguy cơ bọn tội phạm sử dụng robot lau dọn văn phòng cho các vụ ám sát. Vào ngày thực hiện tấn công, một robot lau dọn văn phòng sẽ được bọn tội phạm triển khai trà trộn vào các robot lau dọn văn phòng khác tại trụ sở của một cơ quan chính quyền, chẳng hạn như Bộ Tài chính. Nó sẽ tham gia công việc thường ngày như thu dọn rác, lau chùi hành lang..., cho đến khi hệ thống cảm biến hình ảnh của nó phát hiện ra vị bộ trưởng tài chính. Lúc đó, nó sẽ ngưng công việc lau dọn và di chuyển hướng tới vị bộ trưởng, rồi kích hoạt khối chất nổ được cài giấu bên trong nó, khiến vị bộ trưởng tử vong ngay tại chỗ. Hoặc trong một tình huống giả định khác, kẻ xấu có thể xâm nhập vào hệ thống AI của xe tự lái và thay đổi hình ảnh các biển hiệu giao thông mà nó tiếp nhận. Chỉ cần thay đổi một vài giá trị pixel của biển báo dừng lại, đủ để con người có thể không nhận ra sự khác biệt lớn nhưng có thể khiến hệ thống AI của xe tự lái tưởng rằng đó không phải là biển báo dừng lại và tiếp tục để xe chạy và có thể gây ra tai nạn.

Hỗ trợ đắc lực cho các vụ tấn công lừa đảo

Theo bản báo cáo của nhóm 26 chuyên gia, AI có thể giúp giảm mạnh chi phí của các cuộc tấn công mạng bằng cách tự động hóa một số tác vụ cần nhiều thời gian xử lý đồng thời có thể giúp phân tích hiệu quả hơn các thông tin thu thập trái phép.

Một ví dụ mà bản báo cáo dẫn ra là AI có thể được sử dụng để hỗ trợ hình thức lừa đảo bằng tấn công giả mạo có trọng điểm (spear phishing). Hình thức tấn công này được thiết kế để nhắm đến mục tiêu cá nhân cụ thể nhằm lấy cắp các thông tin nhạy cảm như tên đăng nhập, mật khẩu và các thông tin chi tiết thẻ tín dụng của người sử dụng… bằng cách giả dạng thành một chủ thể tin cậy trong một giao dịch điện tử. Chẳng hạn, các e-mail phishing chứa liên kết đến các trang web giả mạo y như các trang web chính thống, với ý định dẫn dụ người dùng nhấp chuột (click) vào và tiến hành các bước đăng nhập như điện tên đăng nhập, mật khẩu... Ngay lập tức, các thông tin này bị lấy cắp và gửi đến cho kẻ lừa đảo.

Để tiến hành các cuộc spear phishing, thông thường bọn tin tặc sẽ thu thập và phân tích các thông tin cần thiết để có thể giả mạo một chủ thể đáng tin cậy trong giao dịch điện tử. Quá trình đó có thể mất nhiều thời gian nhưng với sự hỗ trợ của AI, bọn tin tặc có thể nâng cao hiệu quả các hoạt động này một cách nhanh chóng.

Chẳng hạn, bọn tin tặc có thể gài một phần mềm độc hại vào máy tính để bàn, máy tính xách tay hay bất cứ thiết bị kết nối nào của bạn. Phần mềm này sẽ thu thập các dữ liệu giao dịch hàng ngày của bạn từ e-mail cho đến các tin nhắn, rồi sau đó, chuyển chúng đến một chương trình trí tuệ nhân tạo để giúp phân tích và nắm bắt cách mà bạn giao tiếp với những cá nhân cụ thể qua e-mail, tin nhắn. Sau đó, chương trình này sẽ giả dạng đóng vai bạn để gửi các e-mail phishing đến các đồng nghiệp và các mối quan hệ khác của bạn, dẫn dụ họ mở e-mail và click vào các đường link hoặc tập tin gài sẵn mã độc.

Trong một bản báo cáo gửi cho Ủy ban đặc biệt về Al của Thượng viện Anh vào đầu năm nay, Pave Palmer, Giám đốc công nghệ ở công ty an ninh mạng Darktrace, viết: “Hãy tưởng tượng một phần mềm độc hại được trang bị năng lực AI có thể hiểu tất cả các tài liệu và có thể tự huấn luyện để bắt chược cách mà bạn giao tiếp khác nhau với những người khác nhau. Sau đó, nó có thể liên lạc với đồng nghiệp và khách hàng của bạn tùy theo tình huống cụ thể bằng cách bắt chước phong cách giao tiếp của bạn với từng người trong số họ”.

Theo Palmer, các tin nhắn hay e-mail lừa đảo bắt chước giọng văn, phong cách viết của một đối tượng sẽ khiến những khách hàng hoặc đồng nghiệp của đối tượng này dễ dàng tin tưởng và có thể click vào các đường dẫn (link) hay tập tin chứa mã độc được đính kèm ở các tin nhắn và e-mail này.

Sử dụng AI để tạo video khiêu dâm giả mạo

Bản báo cáo của 26 chuyên gia cảnh báo AI cũng có thể bị khai thác để tạo ra các video giả mạo bằng cách ghép chồng hình ảnh khuôn mặt của một người lên hình ảnh khuôn mặt của người khác trong các video.  Đây là công nghệ hoán đổi khuôn mặt (face-swapping technology) dựa vào AI. Nhờ các kỹ thuật chẳng hạn như máy học, hàng loạt bức ảnh có thể được nhập vào một thuật toán để tạo ra các khuôn mặt sinh động thay thế cho các khuôn mặt của bất kỳ ai trong một video sẵn có trước đó. Bọn xấu có thể sử dụng công nghệ này để ghép chồng hình ảnh khuôn mặt của một nạn nhân lên khuôn mặt của các nhân vật trong các video khiêu dâm, rồi sau đó tống tiền nạn nhân hoặc để trả thù cá nhân.

Vào cuối năm ngoái, một tài khoản có biệt danh “deepfakes” trên mạng xã hội Reddit, đã đăng một loạt video khiêu dâm giả mạo những nữ diễn viên và ca sĩ nổi tiếng của Mỹ như Emma Watson, Scarlett Johansson, Katy Perry, Taylor Swift bằng cách sử dụng công nghệ hoán đổi khuôn mặt. Đến tháng 1-2018, một người dùng khác trên Reddit giới thiệu ứng dụng FakeApp, cho phép bất cứ ai có thể tải nó xuống để sử dụng để tạo các video giả mạo bằng công nghệ hoán đổi khuôn mặt hoạt động dựa vào một mạng lưới nơ-ron nhân tạo và năng lực xử lý đồ họa.

Ngoài ra, các công nghệ xử lý giọng nói và hình ảnh dựa vào AI cũng có thể được sử dụng cho các mục đích tuyên truyền chính trị và lan truyền tin giả. Chẳng hạn, những kẻ xấu có thể dùng các công cụ AI như vậy để tạo ra những video giả mạo cho thấy một nguyên thủ đang phát biểu những lời lẽ kích động mà không diễn ra trên thực tế.

DanQuyen.com
    Phản Hồi Của Độc Giả Về Bài Viết
Họ và Tên
Địa chỉ
Email
Tiêu đề
Nội dung
Gửi cho bạn bè Phản hồi

Các bài viết mới:
    Andrey Andreev - “thần tình yêu” trong thế giới trực tuyến (13/11/2018)
    Apple 'hút hàng' ngày mua sắm hạ giá Lễ độc thân (12/11/2018)
    Amazon cuối cùng cũng bán iPhone XR và XS sau thời gian dài "chiến tranh lạnh" với Apple (11/11/2018)
    Google chiếm lĩnh thị trường giáo dục (10/11/2018)
    Trung Quốc muốn thống trị trí tuệ nhân tạo toàn cầu (09/11/2018)
    Tỷ phú Bill Gates cầm bình đựng phân khi phát biểu tại Trung Quốc (07/11/2018)
    Quá ế ẩm, Apple cắt giảm sản xuất iPhone XR (06/11/2018)
    Smartphone màn hình gập sẽ là xu hướng mới  (05/11/2018)
    Chọn video phù hợp cho trẻ con trên YouTube Kids (04/11/2018)
    Apple ngừng công bố doanh số cụ thể của iPhone, iPad vì "ế ẩm"? (03/11/2018)
    Siêu máy tính mô phỏng não người: Bước tiến mới của nhân loại (02/11/2018)
    Sản phẩm công nghệ mới (01/11/2018)
    Câu chuyện SuperMicro và những hệ lụy (31/10/2018)
    Điện thoại thông minh: Cuộc đua giành thị phần lại dậy sóng (30/10/2018)
    Máy ảnh smartphone đang mất kiểm soát, bạn đừng để bị đánh lừa (29/10/2018)
    Giảm mối đe dọa về an ninh mạng nhờ AI (28/10/2018)
    Điện thoại thương hiệu Việt: Vẫn đầy tham vọng (27/10/2018)
    Xe hơi thời công nghiệp 4.0: Kết nối cao, thông minh hơn (26/10/2018)
    Đây là lý do CEO Apple quyết định công khai là một người đồng tính (25/10/2018)
    Uber tham vọng giao đồ ăn bằng máy bay không người lái (24/10/2018)

Các bài viết cũ:
    iPhone Xs Max có giá lên tới 43 triệu đồng (13/09/2018)
    iPhone XC lộ ảnh trước ngày ra mắt (12/09/2018)
    Trí tuệ nhân tạo có biết "định kiến" hay không? (11/09/2018)
    Motorola G7 lộ thiết kế "cực chất": Màn hình giọt nước, cảm biến trên logo (10/09/2018)
    Tất cả chúng ta đã nhầm, Apple sẽ chẳng bán rẻ iPhone 9 như mong đợi đâu (09/09/2018)
    'Thật dại' nếu mua iPhone vào lúc này (08/09/2018)
    Sốc với hình ảnh rò rỉ của Nokia 9 (07/09/2018)
    Lộ giá iPhone Xs, iPhone giá rẻ màn hình LCD trước giờ G (06/09/2018)
    Làm sao biết điện thoại Android 'dính' mã độc đào tiền ảo? (04/09/2018)
    Trung Quốc sử dụng LinkedIn để tuyển gián điệp ở Mỹ? (03/09/2018)
    iPhone thế hệ tiếp theo của Apple sẽ có tên Xs? (02/09/2018)
    iPhone sẽ ngày càng "cồng kềnh" và chẳng khác gì Note (01/09/2018)
    Điều đặc biệt trong bức thư mời sự kiện ra mắt iPhone mới (31/08/2018)
    Tất cả những điều cần biết về iPad 2018: Rất khác biệt, và tuyệt vời! (30/08/2018)
    6 lý do mua Galaxy Note 9 thay vì Galaxy S9 (29/08/2018)
    iPhone giá rẻ năm nay sẽ bán ra thị trường muộn hơn? (28/08/2018)
    Galaxy Note 9 xứng đáng với giá 1000 USD hơn iPhone X (27/08/2018)
    Nhà mạng T-Mobile của Mỹ bị xâm phạm dữ liệu, khoảng 2 triệu khách hàng ảnh hưởng (26/08/2018)
    Australia cấm Huawei cung cấp thiết bị mạng 5G? (23/08/2018)
    Tại sao thành công của iPhone X sẽ là mối đe dọa cho 3 dòng iPhone sắp tới? (21/08/2018)
 
"Hoàng Sa, Trường Sa là của Việt Nam".

Chuyển Tiếng Việt


    Truyện Ngắn
Người về hay đi - Truyện ngắn của Ái Duy


   Sự Kiện

Lời Di Chúc của Vua Trần Nhân Tôn





 

Copyright © 2010 DanQuyen.com - Cơ Quan Ngôn Luận Người Việt Hải Ngoại
Địa Chỉ Liên Lạc Thư Tín:
E-mail: danquyennews@aol.com
Lượt Truy Cập : 125398621.