Cointime

Download App
iOS & Android

Liệu bot AI có thể đánh cắp tiền điện tử của bạn không? Sự gia tăng của những tên trộm kỹ thuật số

Trong thời đại công nghệ tiền điện tử và AI đang bùng nổ, tính bảo mật của tài sản kỹ thuật số đang phải đối mặt với những thách thức chưa từng có. Bài viết này tiết lộ cách robot AI đã biến không gian tiền điện tử thành một chiến trường tội phạm mới thông qua các cuộc tấn công tự động, học sâu và khả năng thâm nhập quy mô lớn. Từ lừa đảo chính xác đến khai thác lỗ hổng hợp đồng thông minh, từ lừa đảo giả mạo sâu đến phần mềm độc hại thích ứng, các phương tiện tấn công đã vượt qua giới hạn của khả năng phòng thủ truyền thống của con người. Đối mặt với trò chơi giữa các thuật toán này, người dùng cần phải cảnh giác với những "kẻ trộm kỹ thuật số" được hỗ trợ bởi AI và tận dụng hiệu quả các công cụ phòng thủ do AI điều khiển. Chỉ bằng cách duy trì sự cân bằng giữa tính cảnh giác về mặt kỹ thuật và các biện pháp bảo mật, chúng ta mới có thể bảo vệ được pháo đài của cải trong thế giới tiền điện tử đầy biến động.

Tóm tắt

  1. Robot AI có khả năng tự tiến hóa và có thể tự động thực hiện các cuộc tấn công mã hóa hàng loạt, với hiệu quả tấn công vượt xa tin tặc con người
  2. Vào năm 2024, các cuộc tấn công lừa đảo bằng AI đã gây ra một khoản thiệt hại duy nhất là 65 triệu đô la và các trang web airdrop giả mạo có thể tự động làm rỗng ví của người dùng
  3. AI cấp độ GPT-3 có thể phân tích trực tiếp các lỗ hổng hợp đồng thông minh. Công nghệ tương tự đã từng dẫn đến vụ trộm 80 triệu đô la từ Fei Protocol.
  4. AI sử dụng phương pháp tấn công brute force để phân tích dữ liệu rò rỉ mật khẩu nhằm thiết lập mô hình dự đoán, giảm thời gian bảo vệ ví mật khẩu yếu tới 90%
  5. Video/âm thanh giả mạo CEO được tạo ra bởi công nghệ deep fake đang trở thành vũ khí kỹ thuật xã hội mới để thúc đẩy chuyển giao
  6. Các công cụ AI-as-a-service như WormGPT đã xuất hiện trên thị trường chợ đen, cho phép nhân viên không chuyên môn tạo ra các cuộc tấn công lừa đảo tùy chỉnh
  7. Phần mềm độc hại chứng minh khái niệm BlackMamba sử dụng AI để viết lại mã theo thời gian thực, khiến nó không thể bị phát hiện 100% bởi các hệ thống bảo mật chính thống
  8. Ví phần cứng lưu trữ khóa riêng tư ngoại tuyến, có thể bảo vệ hiệu quả chống lại 99% các cuộc tấn công từ xa bằng AI (được xác minh bởi sự cố FTX năm 2022)
  9. Mạng bot xã hội AI có thể thao túng hàng triệu tài khoản cùng lúc, vụ lừa đảo video giả mạo sâu của Musk liên quan đến hơn 46 triệu đô la

1. Robot AI là gì?

Bot AI là phần mềm tự học có thể tự động hóa và liên tục tối ưu hóa các cuộc tấn công mạng, khiến chúng nguy hiểm hơn các phương pháp tấn công truyền thống.

Trọng tâm của tội phạm mạng do AI điều khiển ngày nay là các bot AI – chương trình phần mềm tự học được thiết kế để xử lý lượng dữ liệu khổng lồ, đưa ra quyết định độc lập và thực hiện các nhiệm vụ phức tạp mà không cần sự can thiệp của con người. Trong khi các bot này đã trở thành lực lượng phá hoại trong các ngành công nghiệp như tài chính, chăm sóc sức khỏe và dịch vụ khách hàng, chúng cũng trở thành vũ khí cho tội phạm mạng, đặc biệt là trong lĩnh vực tiền điện tử.

Không giống như các phương pháp hack truyền thống dựa vào thao tác thủ công và chuyên môn kỹ thuật, bot AI có thể tự động hóa hoàn toàn các cuộc tấn công, thích ứng với các biện pháp bảo mật tiền điện tử mới và thậm chí tối ưu hóa các chiến lược theo thời gian. Điều này khiến họ vượt trội hơn nhiều so với tin tặc con người vốn bị giới hạn bởi thời gian, nguồn lực và quy trình dễ xảy ra lỗi.

2. Tại sao robot AI lại nguy hiểm như vậy?

Mối đe dọa lớn nhất của tội phạm mạng AI là quy mô. Một tin tặc cố gắng đột nhập vào sàn giao dịch hoặc lừa người dùng cung cấp khóa riêng tư thì có khả năng hạn chế, nhưng bot AI có thể triển khai hàng nghìn cuộc tấn công cùng lúc và tối ưu hóa chiến thuật của chúng theo thời gian thực.

  • Tốc độ: Bot AI có thể quét hàng triệu giao dịch blockchain, hợp đồng thông minh và trang web trong vài phút, xác định lỗ hổng ví (dẫn đến hack ví), giao thức DeFi và điểm yếu của sàn giao dịch.
  • Khả năng mở rộng: Trong khi kẻ lừa đảo là con người có thể gửi hàng trăm email lừa đảo, thì bot AI có thể gửi email lừa đảo được cá nhân hóa và thiết kế cẩn thận tới hàng triệu người trong cùng khoảng thời gian.
  • Khả năng thích ứng: Máy học cho phép các bot này tiến hóa sau mỗi lần thất bại, khiến chúng khó bị phát hiện và ngăn chặn hơn.

Tính năng tự động hóa, khả năng thích ứng và khả năng tấn công ở quy mô lớn này đã dẫn đến sự gia tăng các vụ lừa đảo tiền điện tử do AI điều khiển, khiến việc bảo vệ chống lại gian lận tiền điện tử trở nên quan trọng hơn bao giờ hết.

Vào tháng 10 năm 2024, tài khoản X của Andy Ayrey, nhà phát triển robot AI Truth Terminal, đã bị hack. Kẻ tấn công đã sử dụng tài khoản của mình để quảng bá một đồng tiền meme gian lận có tên là Infinite Backrooms (IB), khiến giá trị thị trường của IB tăng vọt lên 25 triệu đô la. Trong vòng 45 phút, bọn tội phạm đã bán vị thế của mình và kiếm được lợi nhuận hơn 600.000 đô la.

3. Robot AI đánh cắp tài sản tiền điện tử như thế nào?

3. Robot AI đánh cắp tài sản tiền điện tử như thế nào?

Robot AI không chỉ tự động hóa gian lận mà còn khiến nó thông minh hơn, chính xác hơn và khó phát hiện hơn. Sau đây là các loại lừa đảo AI nguy hiểm hiện đang được sử dụng để đánh cắp tài sản tiền điện tử:

Bot câu cá hỗ trợ AI

Các cuộc tấn công lừa đảo truyền thống không phải là điều mới mẻ trong lĩnh vực tiền điện tử, nhưng AI khiến chúng trở nên đe dọa hơn. Các bot AI ngày nay có thể tạo ra các tin nhắn rất giống với các thông báo chính thức từ các nền tảng như Coinbase hoặc MetaMask, thu thập thông tin cá nhân thông qua cơ sở dữ liệu bị rò rỉ, phương tiện truyền thông xã hội và thậm chí là hồ sơ blockchain để khiến các vụ lừa đảo trở nên cực kỳ thuyết phục.

Ví dụ, vào đầu năm 2024, một cuộc tấn công lừa đảo bằng AI nhắm vào người dùng Coinbase đã lừa đảo gần 65 triệu đô la thông qua email cảnh báo bảo mật giả mạo. Ngoài ra, sau khi phát hành GPT-4, những kẻ lừa đảo đã thiết lập một trang web airdrop token OpenAI giả mạo để lừa người dùng tự động xóa tài sản của họ sau khi kết nối ví.

Những cuộc tấn công lừa đảo được tăng cường bằng AI này thường không có lỗi chính tả hoặc cách diễn đạt kém, và một số thậm chí còn triển khai robot dịch vụ khách hàng AI để lấy khóa riêng hoặc mã 2FA dưới danh nghĩa "xác minh". Vào năm 2022, phần mềm độc hại Mars Stealer có thể đánh cắp khóa riêng tư từ hơn 40 plugin ví và ứng dụng 2FA và thường lây lan qua các liên kết lừa đảo hoặc công cụ vi phạm bản quyền.

Robot quét lỗ hổng AI

Lỗ hổng trong hợp đồng thông minh là mỏ vàng cho tin tặc và các bot AI đang khai thác chúng với tốc độ chưa từng có. Các bot này liên tục quét các nền tảng như Ethereum hoặc BNB Smart Chain để tìm kiếm lỗ hổng trong các dự án DeFi mới triển khai. Chúng tự động khai thác ngay khi phát hiện ra vấn đề, thường là trong vòng vài phút.

Các nhà nghiên cứu đã chứng minh rằng các chatbot AI, chẳng hạn như chatbot được hỗ trợ bởi GPT-3, có thể phân tích mã hợp đồng thông minh để xác định điểm yếu có thể khai thác. Ví dụ, nhà đồng sáng lập Zellic, Stephen Tong, đã trình diễn một chatbot AI có khả năng phát hiện lỗ hổng trong chức năng "rút tiền" của hợp đồng thông minh, tương tự như lỗ hổng bị khai thác trong cuộc tấn công Fei Protocol gây ra thiệt hại 80 triệu đô la.

Tấn công bằng vũ lực được tăng cường bằng AI

Các cuộc tấn công bằng vũ lực thường mất nhiều thời gian, nhưng bot AI đã khiến chúng trở nên cực kỳ hiệu quả. Bằng cách phân tích các vụ vi phạm mật khẩu trước đó, các bot này có thể nhanh chóng xác định các mô hình bẻ khóa mật khẩu và gieo cụm từ với tốc độ kỷ lục. Một nghiên cứu năm 2024 về ví tiền điện tử trên máy tính để bàn, bao gồm Sparrow, Etherwall và Bither, phát hiện ra rằng mật khẩu yếu làm giảm đáng kể khả năng chống lại các cuộc tấn công bằng cách dùng vũ lực, làm nổi bật tầm quan trọng của mật khẩu mạnh và phức tạp trong việc bảo vệ tài sản kỹ thuật số.

Deepfake (giả mạo sâu)

Hãy tưởng tượng bạn thấy một video từ một người có ảnh hưởng trong lĩnh vực tiền điện tử hoặc một giám đốc điều hành đáng tin cậy kêu gọi bạn đầu tư — nhưng đó hoàn toàn là giả mạo. Đây chính là thực trạng của các vụ lừa đảo deepfake do AI thực hiện. Những con bot này tạo ra các video và bản ghi siêu thực, lừa cả những người nắm giữ tiền điện tử lão luyện chuyển tiền.

Mạng bot truyền thông xã hội

Trên các nền tảng như X và Telegram, một số lượng lớn bot AI phát tán các vụ lừa đảo tiền điện tử trên diện rộng. Các botnet như “Fox8” sử dụng ChatGPT để tạo ra hàng trăm bài đăng có sức thuyết phục, thổi phồng các mã thông báo lừa đảo và phản hồi người dùng theo thời gian thực.

Trong một trường hợp, những kẻ lừa đảo đã lợi dụng tên tuổi của Elon Musk và ChatGPT để quảng bá chương trình tặng tiền điện tử giả mạo — kèm theo video deepfake của Musk — nhằm lừa mọi người gửi tiền cho chúng.

Trong một trường hợp, những kẻ lừa đảo đã lợi dụng tên tuổi của Elon Musk và ChatGPT để quảng bá chương trình tặng tiền điện tử giả mạo — kèm theo video deepfake của Musk — nhằm lừa mọi người gửi tiền cho chúng.

Vào năm 2023, các nhà nghiên cứu tại Sophos phát hiện ra rằng những kẻ lừa đảo tình cảm bằng tiền điện tử đã sử dụng ChatGPT để trò chuyện với nhiều nạn nhân cùng một lúc, khiến những tin nhắn tình cảm của chúng trở nên thuyết phục và có thể mở rộng hơn.

Tương tự như vậy, Meta đã báo cáo sự gia tăng mạnh mẽ các phần mềm độc hại và liên kết lừa đảo được ngụy trang dưới dạng công cụ ChatGPT hoặc AI, thường liên quan đến các chương trình lừa đảo tiền điện tử. Trong thế giới lừa đảo tình cảm, AI đang thúc đẩy cái gọi là hoạt động lừa đảo — những vụ lừa đảo kéo dài, trong đó kẻ lừa đảo vun đắp mối quan hệ rồi dụ nạn nhân đầu tư tiền điện tử giả mạo. Năm 2024, một vụ án nghiêm trọng đã xảy ra ở Hồng Kông: cảnh sát đã phá một băng nhóm tội phạm lừa đảo 46 triệu đô la từ những người đàn ông trên khắp châu Á thông qua trò lừa đảo tình cảm được hỗ trợ bởi AI.

Phần mềm độc hại được hỗ trợ bởi AI đang thúc đẩy tội phạm mạng chống lại người dùng tiền điện tử như thế nào

Trí tuệ nhân tạo đang dạy tội phạm mạng cách hack vào các nền tảng được mã hóa, cho phép một nhóm tấn công ít kỹ năng hơn thực hiện các cuộc tấn công đáng tin cậy. Điều này giúp giải thích tại sao các chiến dịch lừa đảo tiền điện tử và phần mềm độc hại lại có quy mô lớn đến vậy — các công cụ AI cho phép kẻ xấu tự động hóa các vụ lừa đảo và liên tục cải thiện những biện pháp hiệu quả.

AI cũng đang tăng cường các mối đe dọa phần mềm độc hại và chiến lược tấn công nhắm vào người dùng tiền điện tử. Một mối lo ngại là phần mềm độc hại do AI tạo ra, đây là các chương trình độc hại sử dụng trí tuệ nhân tạo để thích ứng và tránh bị phát hiện.

Vào năm 2023, các nhà nghiên cứu đã chứng minh một bằng chứng khái niệm mang tên BlackMamba, một keylogger đa hình sử dụng các mô hình ngôn ngữ AI (giống như công nghệ đằng sau ChatGPT) để viết lại mã của nó mỗi khi được thực thi. Điều này có nghĩa là mỗi khi BlackMamba được chạy, nó sẽ tạo ra một biến thể mới của chính nó trong bộ nhớ, giúp nó tránh bị phát hiện bởi các công cụ chống vi-rút và bảo mật điểm cuối.

Trong quá trình thử nghiệm, các hệ thống phát hiện và phản hồi điểm cuối hàng đầu trong ngành đã không phát hiện được phần mềm độc hại do AI tạo ra này. Khi được kích hoạt, nó có thể bí mật thu thập mọi thứ người dùng nhập vào (bao gồm mật khẩu sàn giao dịch tiền điện tử hoặc cụm từ hạt giống ví) và gửi dữ liệu này cho kẻ tấn công.

Mặc dù BlackMamba chỉ là bản demo trong phòng thí nghiệm, nhưng nó nêu bật mối đe dọa thực sự: Tội phạm có thể sử dụng trí tuệ nhân tạo để tạo ra phần mềm độc hại có khả năng thay đổi hình dạng nhắm vào các tài khoản tiền điện tử và khó phát hiện hơn so với các loại virus truyền thống.

Ngay cả khi không có phần mềm độc hại AI tiên tiến, kẻ tấn công vẫn đang lợi dụng sự phổ biến của AI để phát tán các loại Trojan cổ điển. Những kẻ lừa đảo thường thiết lập các ứng dụng giả mạo “ChatGPT” hoặc liên quan đến AI có chứa phần mềm độc hại vì chúng biết người dùng có thể mất cảnh giác do nhãn hiệu AI. Ví dụ, các nhà phân tích bảo mật đã quan sát thấy các trang web lừa đảo mạo danh trang web ChatGPT và có nút "Tải xuống Windows"; nếu nhấp vào, nó sẽ âm thầm cài đặt một Trojan đánh cắp tiền điện tử vào máy của nạn nhân.

Ngoài phần mềm độc hại, AI còn giúp giảm rào cản kỹ thuật đối với tin tặc. Trước đây, tội phạm cần có một số kiến ​​thức về lập trình để tạo ra các trang lừa đảo hoặc vi-rút. Hiện tại, các công cụ “AI dưới dạng dịch vụ” ngầm có thể thực hiện được phần lớn công việc.

Các chatbot AI bất hợp pháp như WormGPT và FraudGPT đã xuất hiện trên các diễn đàn dark web, tạo ra email lừa đảo, mã phần mềm độc hại và mẹo hack theo yêu cầu. Chỉ cần trả phí, ngay cả tội phạm không chuyên về kỹ thuật cũng có thể sử dụng các bot AI này để tạo ra các trang web lừa đảo có sức thuyết phục, tạo ra các biến thể phần mềm độc hại mới và quét lỗ hổng phần mềm.

5. Cách bảo vệ tiền điện tử của bạn khỏi các cuộc tấn công của bot AI

Các mối đe dọa do AI gây ra đang trở nên tinh vi hơn, do đó, các biện pháp bảo mật mạnh mẽ là điều cần thiết để bảo vệ tài sản kỹ thuật số khỏi các vụ lừa đảo và tấn công tự động.

Sau đây là những cách hiệu quả nhất để bảo vệ tiền điện tử của bạn khỏi tin tặc và chống lại lừa đảo AI, lừa đảo deepfake và bot lỗi:

Sử dụng ví phần cứng: Phần mềm độc hại do AI điều khiển và các cuộc tấn công lừa đảo chủ yếu nhắm vào ví trực tuyến (nóng). Bằng cách sử dụng ví phần cứng như Ledger hoặc Trezor, bạn có thể giữ khóa riêng của mình hoàn toàn ngoại tuyến, khiến tin tặc hoặc bot AI độc hại gần như không thể truy cập chúng từ xa. Ví dụ, trong đợt sụp đổ của FTX năm 2022, những người sử dụng ví phần cứng đã tránh được những khoản lỗ lớn mà người dùng lưu trữ tiền trên sàn giao dịch phải chịu.

Sử dụng ví phần cứng: Phần mềm độc hại do AI điều khiển và các cuộc tấn công lừa đảo chủ yếu nhắm vào ví trực tuyến (nóng). Bằng cách sử dụng ví phần cứng như Ledger hoặc Trezor, bạn có thể giữ khóa riêng của mình hoàn toàn ngoại tuyến, khiến tin tặc hoặc bot AI độc hại gần như không thể truy cập chúng từ xa. Ví dụ, trong đợt sụp đổ của FTX năm 2022, những người sử dụng ví phần cứng đã tránh được những khoản lỗ lớn mà người dùng lưu trữ tiền trên sàn giao dịch phải chịu.

Cho phép xác thực đa yếu tố (MFA) và mật khẩu mạnh: Bot AI có thể khai thác khả năng học sâu trong tội phạm mạng để bẻ khóa mật khẩu yếu, sử dụng thuật toán học máy được đào tạo về các vi phạm dữ liệu bị xâm phạm để dự đoán và khai thác thông tin đăng nhập dễ bị tấn công. Để chống lại điều này, hãy luôn bật MFA thông qua ứng dụng xác thực như Google Authenticator hoặc Authy, thay vì mã dựa trên SMS — tin tặc có thể khai thác lỗ hổng hoán đổi SIM khiến xác minh qua SMS kém an toàn hơn.

Hãy cẩn thận với các vụ lừa đảo qua mạng do AI thực hiện: Email, tin nhắn lừa đảo và yêu cầu hỗ trợ giả mạo do AI tạo ra gần như không thể phân biệt được với email, tin nhắn thật. Tránh nhấp vào liên kết trong email hoặc tin nhắn trực tiếp, luôn xác minh URL trang web theo cách thủ công và không bao giờ chia sẻ khóa riêng tư hoặc cụm từ hạt giống, bất kể yêu cầu có vẻ thuyết phục đến đâu.

Xác minh danh tính cẩn thận để tránh lừa đảo deepfake: Video và bản ghi deepfake sử dụng AI có thể mạo danh những người có ảnh hưởng trong lĩnh vực tiền điện tử, giám đốc điều hành hoặc thậm chí là những người bạn biết một cách thuyết phục. Nếu ai đó yêu cầu tiền hoặc quảng cáo cơ hội đầu tư khẩn cấp qua video hoặc âm thanh, hãy xác minh danh tính của họ qua nhiều kênh trước khi thực hiện hành động.

Luôn cập nhật thông tin về các mối đe dọa bảo mật blockchain: Thường xuyên theo dõi các nguồn bảo mật blockchain đáng tin cậy như Chainalysis hoặc SlowMist.

Các bình luận

Tất cả bình luận

Recommended for you