Theo một báo cáo mới, kể từ khi OpenAI ra mắt ChatGPT vào tháng 11 năm ngoái, nền tảng tiền thưởng lỗi Web3 Immunefi đã nhận được một số lượng lớn các báo cáo bảo mật web3 do ChatGPT tạo ra. Immunefi cho biết ban đầu các báo cáo có vẻ là thật, nhưng khi kiểm tra kỹ hơn, những người gửi không tìm thấy bất kỳ lỗ hổng thực sự nào. Immunefi nói thêm rằng các yêu cầu cơ bản trong các báo cáo này là "nực cười", được gửi bởi những cá nhân "hoàn toàn thiếu kỹ năng bảo mật Web3" và những người hy vọng rằng những người săn tiền thưởng lỗi Web3 sẽ dễ dàng như nhập một số mẹo ChatGPT.
Mitchell Amador, Người sáng lập và Giám đốc điều hành của Immunefi, cho biết: "Ngành phải đánh giá kỹ lưỡng mọi công cụ mà họ dự định đưa vào hộp công cụ bảo mật của mình. Hiện tại, ChatGPT không phải là một công cụ đáng tin cậy. Đối với bảo mật Web3, tức là phát hiện lỗ hổng, công nghệ này là chưa có. Chưa đủ trưởng thành."
Immunefi đã tiến hành một cuộc khảo sát rộng hơn về việc sử dụng ChatGPT trong các hoạt động bảo mật Web3 và nhận thấy rằng 76,4% tin tặc mũ trắng sử dụng công cụ này trong các hoạt động bảo mật Web3 của họ, với 36,7% sử dụng nó như một phần trong quy trình làm việc hàng ngày của họ. Tuy nhiên, 64,2% số người được hỏi có những hạn chế về độ chính xác của công nghệ trong việc xác định các lỗ hổng, với 61,2% nhấn mạnh rằng công nghệ này thiếu kiến thức cụ thể và những thách thức trong việc xử lý kiểm toán quy mô lớn.
Mặc dù 52,1% hacker mũ trắng nói rằng việc sử dụng rộng rãi ChatGPT có vấn đề về bảo mật, phần lớn cộng đồng (75,2%) vẫn tin rằng nó có tiềm năng cải thiện nghiên cứu bảo mật Web3. Cộng đồng bày tỏ sự cần thiết phải có khung quản trị mạnh mẽ, kiểm soát truy cập nghiêm ngặt và giám sát liên tục để giảm thiểu rủi ro.
Tất cả bình luận