Giới “tinh hoa công nghệ” cảnh báo: Loài người có thể tuyệt chủng vì AI
"Giảm
thiểu
nguy
cơ
tuyệt
chủng
do
AI
phải
là
ưu
tiên
toàn
cầu
bên
cạnh
những
rủi
ro
ở
quy
mô
xã
hội
khác
như
đại
dịch
hay
chiến
tranh
hạt
nhân"
-
thông
báo
do
Trung
tâm
An
toàn
AI
(CAIS)
tại
San
Francisco
–
Mỹ
đăng
trên
website
hôm
30-5
(giờ
Mỹ).
Bloomberg
mô
tả
thông
điệp
trên
được
ký
bởi
350
người
là
các
lãnh
đạo
và
chuyên
gia
đầu
ngành
AI,
trong
đó
có
cả
ông
Sam
Altman
-
Giám
đốc
điều
hành
(CEO)
OpenAI
–
"cha
đẻ"
ChatGPT.
Ngoài
ra,
còn
có
các
lãnh
đạo
của
Goolge
DeepMind
hay
Anthropic
…
nhưng
không
có
ai
từ
Meta
-
công
ty
đang
theo
đuổi
lĩnh
vực
AI.
Việc
đông
đảo
nhân
vật
được
ví
như
giới
"tinh
hoa
công
nghệ"
cùng
nhau
cảnh
báo
AI
như
đại
dịch
hay
chiến
tranh
hạt
nhân,
diễn
ra
trong
bối
cảnh
có
nhiều
lo
ngại
về
AI.
Hơn
1.000
chuyên
gia
hàng
đầu
công
nghệ,
bao
gồm
cả
tỉ
phú
Elon
Musk,
nhà
đồng
sáng
lập
Apple
Steve
Wozniak
hồi
cuối
tháng
3,
cùng
ký
một
bức
thư
kêu
gọi
các
công
ty,
tổ
chức
toàn
cầu
ngừng
cuộc
đua
siêu
AI
trong
6
tháng
để
cùng
xây
dựng
một
bộ
quy
tắc
chung
về
công
nghệ
này.
Khoảng
một
tháng
sau
đó,
CEO
Google
Sundar
Pichai
lên
tiếng
thừa
nhận
AI
khiến
ông
mất
ngủ
nhiều
đêm
"vì
nó
có
thể
gây
nguy
hiểm
hơn
bất
kỳ
thứ
gì
con
người
từng
thấy".
"Cho
tới
một
ngày
nào
đó,
AI
sẽ
có
những
khả
năng
vượt
xa
trí
tưởng
tượng
của
con
người
và
chúng
ta
chưa
thể
hình
dung
hết
những
điều
tồi
tệ
nhất
có
thể
xảy
ra"
-
ông
Sundar
Pichai
nói.
Tỉ
phú
Elon
Musk
(trái)
và
CEO
OpenAI
Sam
Altman.
Ảnh:
Vanityfair
CEO
OpenAI
cũng
cho
rằng
AI
có
thể
mang
lại
lợi
ích
to
lớn
nhưng
gây
nỗi
lo
về
thông
tin
sai
lệch,
cú
sốc
kinh
tế,
hoặc
thứ
gì
đó
"ở
mức
độ
vượt
xa
bất
cứ
những
gì
con
người
đã
chuẩn
bị".
Chính
ông
Sam
Altman
phải
thừa
nhận
luôn
có
cảm
giác
lo
lắng
về
AI
và
sốc
vì
ChatGPT
quá
phổ
biến.
Các
chuyên
gia
cũng
đang
lo
ngại
về
một
mô
hình
cao
hơn
là
trí
tuệ
nhân
tạo
tổng
hợp
(AGI).
AGI
được
đánh
giá
phức
tạp
hơn
nhiều
so
với
mô
hình
AI
tạo
sinh
nhờ
khả
năng
tự
nhận
thức
những
gì
nó
nói
và
làm.
Về
mặt
lý
thuyết,
công
nghệ
này
sẽ
khiến
con
người
phải
lo
sợ
trong
tương
lai.
Bằng
Hưng
http://dlvr.it/SpxrQ1
http://dlvr.it/SpxrQ1
Không có nhận xét nào