Cảnh báo sử dụng AI tạo hình ảnh và giọng nói giả mạo để lừa tiền
Ngày
2-2,
ông
Nguyễn
Tiến
Đạt,
Tổng
Giám
đốc
Trung
tâm
nghiên
cứu
mã
độc
(AntiMalware)
của
Bkav,
cho
biết
ngay
cả
khi
bạn
thực
hiện
một
cuộc
gọi
video
và
thấy
mặt
người
thân
hay
bạn
bè,
nghe
đúng
giọng
nói
của
họ
thì
cũng
không
hẳn
bạn
đang
nói
chuyện
với
chính
người
đó.
Nguyễn
Thanh
Hương
(tên
nhân
vật
đã
được
thay
đổi)
là
nhân
viên
văn
phòng
tại
Hà
Nội.
Trong
một
lần
trò
chuyện
với
bạn
qua
Facebook
Messenger,
người
bạn
của
Hương
đã
chào
và
kết
thúc
câu
chuyện
nhưng
đột
nhiên
quay
lại
nhắn
tin,
hỏi
vay
tiền
và
đề
nghị
chuyển
tiền
vào
một
tài
khoản
ngân
hàng.
Dù
tên
tài
khoản
trùng
khớp
với
tên
bạn
mình,
Hương
vẫn
thoáng
nghi
ngờ
nên
yêu
cầu
gọi
video
để
xác
thực.
Người
bạn
đồng
ý
ngay
nhưng
cuộc
gọi
chỉ
kéo
dài
vài
giây
do
"mạng
chập
chờn",
theo
giải
thích
của
người
bạn.
Đã
thấy
mặt
bạn
mình
trong
cuộc
gọi
video,
giọng
nói
cũng
đúng
của
người
này,
Hương
không
còn
nghi
ngờ
và
chuyển
tiền.
Tuy
nhiên,
chỉ
sau
khi
chuyển
tiền
thành
công,
Hương
mới
biết
mình
đã
mắc
bẫy
của
hacker.
Nhiều
người
đã
trở
thành
nạn
nhân
của
các
cuộc
lừa
đảo
tài
chính
sử
dụng
Deepfake
và
có
sự
tham
gia
của
AI
-
Trí
tuệ
nhân
tạo
trong
thời
gian
gần
đây.
Không
chỉ
có
Hương,
nhiều
nạn
nhân
khác
là
bạn
bè,
người
thân
của
Hương
cũng
bị
lừa
theo
cách
tương
tự.
Số
tiền
kẻ
xấu
lừa
được
từ
tài
khoản
Facebook
dạng
này
lên
tới
hàng
chục
triệu
đồng.
Nửa
cuối
năm
2023,
Bkav
liên
tục
nhận
được
các
báo
cáo
cũng
như
yêu
cầu
trợ
giúp
của
nạn
nhân
về
các
vụ
việc
lừa
đảo
tương
tự.
Theo
các
chuyên
gia
của
Bkav,
trong
trường
hợp
của
bạn
Hương,
kẻ
xấu
đã
kiểm
soát
được
tài
khoản
Facebook
nhưng
không
lập
tức
chiếm
đoạt
hoàn
toàn
mà
âm
thầm
theo
dõi,
chờ
cơ
hội
giả
làm
nạn
nhân
để
hỏi
vay
tiền
bạn
bè,
người
thân
của
họ.
Chúng
sử
dụng
AI
để
tạo
sẵn
một
đoạn
video
giả
mạo
gương
mặt
và
giọng
nói
của
chủ
tài
khoản
Facebook
(Deepfake).
Khi
được
yêu
cầu
gọi
điện
video
call
để
chứng
thực,
chúng
đồng
ý
nhận
cuộc
gọi
nhưng
sau
đó
nhanh
chóng
ngắt
kết
nối
để
tránh
bị
phát
hiện.
Theo
ông
Nguyễn
Tiến
Đạt,
Trung
tâm
nghiên
cứu
mã
độc
(AntiMalware)
của
Bkav
thì
khả
năng
thu
thập
và
phân
tích
dữ
liệu
người
dùng
thông
qua
AI
cho
phép
tạo
ra
những
chiến
lược
lừa
đảo
tinh
vi.
Điều
này
cũng
có
nghĩa
là
mức
độ
phức
tạp
của
các
kịch
bản
lừa
đảo
khi
kết
hợp
giữa
Deepfake
và
GPT
sẽ
ngày
càng
cao,
khiến
việc
nhận
diện
lừa
đảo
sẽ
khó
khăn
hơn.
Bkav
khuyến
cáo
người
dùng
cần
đặc
biệt
nâng
cao
cảnh
giác,
không
cung
cấp
thông
tin
cá
nhân
(CCCD,
tài
khoản
ngân
hàng,
mã
OTP…),
không
chuyển
tiền
cho
người
lạ
qua
điện
thoại,
mạng
xã
hội,
các
trang
web
có
dấu
hiệu
lừa
đảo.
Khi
có
yêu
cầu
vay/chuyển
tiền
vào
tài
khoản
qua
mạng
xã
hội,
nên
thực
hiện
các
phương
thức
xác
thực
khác
như
gọi
điện
thoại
hay
sử
dụng
các
kênh
liên
lạc
khác
để
xác
nhận
lại.
http://dlvr.it/T2GsZY
2-2,
ông
Nguyễn
Tiến
Đạt,
Tổng
Giám
đốc
Trung
tâm
nghiên
cứu
mã
độc
(AntiMalware)
của
Bkav,
cho
biết
ngay
cả
khi
bạn
thực
hiện
một
cuộc
gọi
video
và
thấy
mặt
người
thân
hay
bạn
bè,
nghe
đúng
giọng
nói
của
họ
thì
cũng
không
hẳn
bạn
đang
nói
chuyện
với
chính
người
đó.
Nguyễn
Thanh
Hương
(tên
nhân
vật
đã
được
thay
đổi)
là
nhân
viên
văn
phòng
tại
Hà
Nội.
Trong
một
lần
trò
chuyện
với
bạn
qua
Messenger,
người
bạn
của
Hương
đã
chào
và
kết
thúc
câu
chuyện
nhưng
đột
nhiên
quay
lại
nhắn
tin,
hỏi
vay
tiền
và
đề
nghị
chuyển
tiền
vào
một
tài
khoản
ngân
hàng.
Dù
tên
tài
khoản
trùng
khớp
với
tên
bạn
mình,
Hương
vẫn
thoáng
nghi
ngờ
nên
yêu
cầu
gọi
video
để
xác
thực.
Người
bạn
đồng
ý
ngay
nhưng
cuộc
gọi
chỉ
kéo
dài
vài
giây
do
"mạng
chập
chờn",
theo
giải
thích
của
người
bạn.
Đã
thấy
mặt
bạn
mình
trong
cuộc
gọi
video,
giọng
nói
cũng
đúng
của
người
này,
Hương
không
còn
nghi
ngờ
và
chuyển
tiền.
Tuy
nhiên,
chỉ
sau
khi
chuyển
tiền
thành
công,
Hương
mới
biết
mình
đã
mắc
bẫy
của
hacker.
Nhiều
người
đã
trở
thành
nạn
nhân
của
các
cuộc
lừa
đảo
tài
chính
sử
dụng
Deepfake
và
có
sự
tham
gia
của
AI
-
Trí
tuệ
nhân
tạo
trong
thời
gian
gần
đây.
Không
chỉ
có
Hương,
nhiều
nạn
nhân
khác
là
bạn
bè,
người
thân
của
Hương
cũng
bị
lừa
theo
cách
tương
tự.
Số
tiền
kẻ
xấu
lừa
được
từ
tài
khoản
dạng
này
lên
tới
hàng
chục
triệu
đồng.
Nửa
cuối
năm
2023,
Bkav
liên
tục
nhận
được
các
báo
cáo
cũng
như
yêu
cầu
trợ
giúp
của
nạn
nhân
về
các
vụ
việc
lừa
đảo
tương
tự.
Theo
các
chuyên
gia
của
Bkav,
trong
trường
hợp
của
bạn
Hương,
kẻ
xấu
đã
kiểm
soát
được
tài
khoản
nhưng
không
lập
tức
chiếm
đoạt
hoàn
toàn
mà
âm
thầm
theo
dõi,
chờ
cơ
hội
giả
làm
nạn
nhân
để
hỏi
vay
tiền
bạn
bè,
người
thân
của
họ.
Chúng
sử
dụng
AI
để
tạo
sẵn
một
đoạn
video
giả
mạo
gương
mặt
và
giọng
nói
của
chủ
tài
khoản
(Deepfake).
Khi
được
yêu
cầu
gọi
điện
video
call
để
chứng
thực,
chúng
đồng
ý
nhận
cuộc
gọi
nhưng
sau
đó
nhanh
chóng
ngắt
kết
nối
để
tránh
bị
phát
hiện.
Theo
ông
Nguyễn
Tiến
Đạt,
Trung
tâm
nghiên
cứu
mã
độc
(AntiMalware)
của
Bkav
thì
khả
năng
thu
thập
và
phân
tích
dữ
liệu
người
dùng
thông
qua
AI
cho
phép
tạo
ra
những
chiến
lược
lừa
đảo
tinh
vi.
Điều
này
cũng
có
nghĩa
là
mức
độ
phức
tạp
của
các
kịch
bản
lừa
đảo
khi
kết
hợp
giữa
Deepfake
và
GPT
sẽ
ngày
càng
cao,
khiến
việc
nhận
diện
lừa
đảo
sẽ
khó
khăn
hơn.
Bkav
khuyến
cáo
người
dùng
cần
đặc
biệt
nâng
cao
cảnh
giác,
không
cung
cấp
thông
tin
cá
nhân
(CCCD,
tài
khoản
ngân
hàng,
mã
OTP…),
không
chuyển
tiền
cho
người
lạ
qua
điện
thoại,
mạng
xã
hội,
các
trang
web
có
dấu
hiệu
lừa
đảo.
Khi
có
yêu
cầu
vay/chuyển
tiền
vào
tài
khoản
qua
mạng
xã
hội,
nên
thực
hiện
các
phương
thức
xác
thực
khác
như
gọi
điện
thoại
hay
sử
dụng
các
kênh
liên
lạc
khác
để
xác
nhận
lại.
http://dlvr.it/T2GsZY
Không có nhận xét nào