Phát triển AI cần hành lang pháp lý
Cuối
tháng
4-2023,
sau
hơn
10
năm
gia
nhập
Google
để
phát
triển
AI,
TS
Geoffrey
Hinton,
người
được
coi
là
"Cha
đỡ
đầu"
của
trí
tuệ
nhân
tạo
(AI),
đã
rời
Google.
TS
Hinton
hiểu
rõ
sức
mạnh
và
những
lợi
ích
của
công
nghệ
này
đem
lại
cho
con
người
nhưng
cũng
nhận
ra
mặt
trái
của
AI
nếu
bị
lạm
dụng.
Không
mở
rộng
quy
mô
đào
tạo
Cũng
như
với
hầu
hết
doanh
nghiệp,
Hinton
phải
tuân
thủ
những
quy
định
nội
bộ
của
Google,
cụ
thể
là
không
được
phát
ngôn
có
liên
quan
đến
công
việc
của
mình.
Vì
vậy,
để
có
thể
thoải
mái
cảnh
báo
về
những
nguy
hiểm
của
AI,
ông
phải
chọn
giải
pháp
rời
Google.
Tháng
7-2022,
Google
đã
sa
thải
kỹ
sư
phần
mềm
Google
Blake
Lemoine
với
lý
do
vi
phạm
chính
sách
của
công
ty.
Đó
là
sau
khi
kỹ
sư
này
đưa
ra
nhận
xét
rằng
Chatbot
AI
LaMDA
của
Google
là
"có
tri
giác".
Trước
đó,
Timnit
Gebru,
đồng
lãnh
đạo
nhóm
AI
đạo
đức
của
Google,
bị
đột
ngột
sa
thải
do
Gebru
đã
cố
gắng
xuất
bản
một
bài
báo
về
sự
nguy
hiểm
của
các
mô
hình
xử
lý
ngôn
ngữ
lớn
(LLM).
TS
Hinton
cho
biết
mối
nguy
trước
mắt
mà
AI
đang
tạo
ra
là
bị
những
kẻ
xấu
lạm
dụng
khiến
ảnh,
video,
văn
bản
giả
với
trình
độ
siêu
hơn
tràn
ngập
internet.
Trong
một
cuộc
trả
lời
phỏng
vấn
của
báo
New
York
Times
vào
tháng
5-2023,
TS
Hinton
thừa
nhận
mình
đã
sai
khi
đánh
giá
khả
năng
phát
triển
của
AI.
TS
Hinton
cho
rằng
cách
tốt
nhất
là
giới
khoa
học
hàng
đầu
thế
giới
nên
tìm
cách
kiểm
soát
công
nghệ
AI.
Trước
mắt,
các
công
ty
không
nên
mở
rộng
quy
mô
đào
tạo
AI
cho
đến
khi
thực
sự
kiểm
soát
được
nó.
Ngày
24-5,
ông
Thierry
Breton,
người
đứng
đầu
về
công
nghiệp
của
Liên
minh
châu
Âu
(EU),
cho
biết
Alphabet,
công
ty
mẹ
của
Google
và
Ủy
ban
châu
Âu
(EC)
đã
đồng
ý
đặt
mục
tiêu
phát
triển
một
hiệp
ước
AI
liên
quan
đến
các
công
ty
châu
Âu
và
ngoài
châu
Âu
để
có
các
quy
định
quản
lý
công
nghệ
này.
Giữa
tháng
11,
Meta
-
công
ty
mẹ
của
Facebook
-
đã
gây
chú
ý
khi
giải
tán
nhóm
AI
có
trách
nhiệm.
Hầu
hết
thành
viên
của
nhóm
này
được
điều
chuyển
đến
nhóm
AI
tạo
sinh
(mà
Meta
hình
thành
hồi
tháng
2.
Microsoft,
nhà
đầu
tư
hơn
10
tỉ
USD
vào
OpenAI
từ
năm
2019
đến
nay
và
đang
tích
hợp
AI
vào
nhiều
dịch
vụ
và
sản
phẩm
cốt
lõi
của
mình
luôn
khẳng
định
theo
đuổi
AI
có
trách
nhiệm.
Công
việc
của
Microsoft
AI
được
hướng
dẫn
bởi
bộ
6
nguyên
tắc
cốt
lõi
và
công
ty
đang
áp
dụng
những
nguyên
tắc
đó
vào
thực
tế
trên
toàn
công
ty
để
phát
triển
và
triển
khai
AI
sẽ
có
tác
động
tích
cực
đến
xã
hội.
Các
nhân
viên
Công
ty
FPT
AI
trong
giờ
làm
việcẢnh:
FPT
cung
cấp
Bảo
đảm
tính
hội
nhập
quốc
tế
Ở
trong
nước,
giới
làm
công
nghệ
ở
Việt
Nam
vốn
rất
nhạy
bén
về
công
nghệ
đã
nhanh
chóng
tham
gia
cuộc
chơi
AI,
đặc
biệt
là
phát
triển
các
ứng
dụng
AI
tạo
sinh.
Ông
Trung
Huỳnh,
CEO,
nhà
sáng
lập
Actable
AI
và
ChatBD,
cho
biết
Việt
Nam
đang
ứng
dụng
mạnh
mẽ
AI
trong
nhiều
lĩnh
vực
như
ngân
hàng,
y
tế,
giáo
dục,
thương
mại
điện
tử...
Theo
ông
Vũ
Anh
Tú,
Giám
đốc
Công
nghệ
của
Tập
đoàn
FPT,
hầu
hết
sản
phẩm,
giải
pháp
AI
này
đều
do
các
công
ty
công
nghệ
Việt
Nam
phát
triển.
Trước
sự
phát
triển
nhanh
về
nghiên
cứu
và
đầu
tư
AI,
theo
các
chuyên
gia,
các
cơ
quan
chức
năng
của
Việt
Nam
cần
phải
nhanh
chóng
vào
cuộc,
sớm
xây
dựng
bộ
khung
pháp
lý
để
bảo
đảm
phát
triển
và
sử
dụng
AI
một
cách
có
trách
nhiệm,
an
toàn.
Bên
cạnh
đó,
cần
tham
khảo
cách
thế
giới
làm
và
bảo
đảm
các
quy
định
mang
tính
hội
nhập
quốc
tế
cao,
có
thể
khai
thác
tối
đa
các
ưu
thế
của
AI,
đồng
thời
giảm
thiểu
thấp
nhất
các
mặt
trái
của
nó.
Đặc
biệt
là
ngăn
ngừa
các
hành
vi
lạm
dụng
công
nghệ
này
cho
những
mục
đích
xấu,
có
hại
cho
xã
hội
và
vi
phạm
pháp
luật.
Song
song
với
bộ
khung
quản
lý
của
nhà
nước,
các
tổ
chức,
hiệp
hội
có
liên
quan
cũng
cần
có
những
bộ
quy
tắc
ứng
xử
có
trách
nhiệm
trong
việc
phát
triển
và
sử
dụng
AI
trong
lĩnh
vực
của
mình.
Việt
Nam
xác
định
AI
là
công
nghệ
nền
tảng
của
cách
mạng
Công
nghiệp
lần
thứ
tư,
góp
phần
quan
trọng
tạo
bước
phát
triển
đột
phá
về
năng
lực
sản
xuất,
nâng
cao
năng
lực
cạnh
tranh
quốc
gia,
thúc
đẩy
phát
triển
kinh
tế
tăng
trưởng
bền
vững.
Mục
tiêu
đến
năm
2025,
AI
được
ứng
dụng
rộng
rãi
trong
hành
chính
công,
dịch
vụ
công
trực
tuyến
giúp
giảm
thời
gian
xử
lý
công
việc,
nhân
lực
bộ
máy,
giảm
thời
gian
chờ
đợi
và
chi
phí
của
người
dân.
Việt
Nam
cũng
đã
đưa
ra
định
hướng
chiến
lược
cho
công
cuộc
phát
triển
AI
ở
Việt
Nam,
trong
đó
nhấn
mạnh
phát
triển
và
ứng
dụng
AI
lấy
con
người
và
doanh
nghiệp
làm
trung
tâm,
tránh
lạm
dụng
công
nghệ
và
xâm
phạm
quyền,
lợi
ích
hợp
pháp
của
tổ
chức,
cá
nhân.
Xây
dựng
quy
chuẩn
sản
phẩm
Bộ
Thông
tin
và
Truyền
thông
được
giao
nhiệm
vụ
xây
dựng
và
hoàn
thiện
bổ
sung
các
văn
bản
pháp
luật
về
giao
dịch
điện
tử,
về
thiết
lập
và
chia
sẻ
dữ
liệu,
về
các
khung
thể
chế
thử
nghiệm,
tạo
ra
một
không
gian
thử
nghiệm
thuận
lợi
với
khung
chính
sách
pháp
lý
riêng
để
tiến
hành
thử
nghiệm
AI
trong
các
lĩnh
vực
có
tiềm
năng;
xây
dựng
các
tiêu
chuẩn,
quy
chuẩn
kỹ
thuật
định
dạng
về
công
nghệ
và
sản
phẩm
AI.
Bộ
Công
an
xây
dựng
và
hoàn
thiện
bổ
sung
các
văn
bản
pháp
luật
về
bảo
vệ
quyền
riêng
tư,
quyền
con
người,
về
an
ninh
trật
tự
có
liên
quan
đến
hoạt
động
phát
triển
và
ứng
dụng
AI
và
về
bảo
đảm
an
toàn
an
ninh
mạng
cho
các
hoạt
động
liên
quan
tới
AI.
Anh
Phúc
http://dlvr.it/SzTLb4
tháng
4-2023,
sau
hơn
10
năm
gia
nhập
để
phát
triển
AI,
TS
Geoffrey
Hinton,
người
được
coi
là
"Cha
đỡ
đầu"
của
trí
tuệ
nhân
tạo
(AI),
đã
rời
Google.
TS
Hinton
hiểu
rõ
sức
mạnh
và
những
lợi
ích
của
công
nghệ
này
đem
lại
cho
con
người
nhưng
cũng
nhận
ra
mặt
trái
của
AI
nếu
bị
lạm
dụng.
Không
mở
rộng
quy
mô
đào
tạo
Cũng
như
với
hầu
hết
doanh
nghiệp,
Hinton
phải
tuân
thủ
những
quy
định
nội
bộ
của
Google,
cụ
thể
là
không
được
phát
ngôn
có
liên
quan
đến
công
việc
của
mình.
Vì
vậy,
để
có
thể
thoải
mái
cảnh
báo
về
những
nguy
hiểm
của
AI,
ông
phải
chọn
giải
pháp
rời
Google.
Tháng
7-2022,
đã
sa
thải
kỹ
sư
phần
mềm
Blake
Lemoine
với
lý
do
vi
phạm
chính
sách
của
công
ty.
Đó
là
sau
khi
kỹ
sư
này
đưa
ra
nhận
xét
rằng
Chatbot
AI
LaMDA
của
là
"có
tri
giác".
Trước
đó,
Timnit
Gebru,
đồng
lãnh
đạo
nhóm
AI
đạo
đức
của
Google,
bị
đột
ngột
sa
thải
do
Gebru
đã
cố
gắng
xuất
bản
một
bài
báo
về
sự
nguy
hiểm
của
các
mô
hình
xử
lý
ngôn
ngữ
lớn
(LLM).
TS
Hinton
cho
biết
mối
nguy
trước
mắt
mà
AI
đang
tạo
ra
là
bị
những
kẻ
xấu
lạm
dụng
khiến
ảnh,
video,
văn
bản
giả
với
trình
độ
siêu
hơn
tràn
ngập
internet.
Trong
một
cuộc
trả
lời
phỏng
vấn
của
báo
New
York
Times
vào
tháng
5-2023,
TS
Hinton
thừa
nhận
mình
đã
sai
khi
đánh
giá
khả
năng
phát
triển
của
AI.
TS
Hinton
cho
rằng
cách
tốt
nhất
là
giới
khoa
học
hàng
đầu
thế
giới
nên
tìm
cách
kiểm
soát
công
nghệ
AI.
Trước
mắt,
các
công
ty
không
nên
mở
rộng
quy
mô
đào
tạo
AI
cho
đến
khi
thực
sự
kiểm
soát
được
nó.
Ngày
24-5,
ông
Thierry
Breton,
người
đứng
đầu
về
công
nghiệp
của
Liên
minh
châu
Âu
(EU),
cho
biết
Alphabet,
công
ty
mẹ
của
và
Ủy
ban
châu
Âu
(EC)
đã
đồng
ý
đặt
mục
tiêu
phát
triển
một
hiệp
ước
AI
liên
quan
đến
các
công
ty
châu
Âu
và
ngoài
châu
Âu
để
có
các
quy
định
quản
lý
công
nghệ
này.
Giữa
tháng
11,
Meta
-
công
ty
mẹ
của
-
đã
gây
chú
ý
khi
giải
tán
nhóm
AI
có
trách
nhiệm.
Hầu
hết
thành
viên
của
nhóm
này
được
điều
chuyển
đến
nhóm
AI
tạo
sinh
(mà
Meta
hình
thành
hồi
tháng
2.
Microsoft,
nhà
đầu
tư
hơn
10
tỉ
USD
vào
OpenAI
từ
năm
2019
đến
nay
và
đang
tích
hợp
AI
vào
nhiều
dịch
vụ
và
sản
phẩm
cốt
lõi
của
mình
luôn
khẳng
định
theo
đuổi
AI
có
trách
nhiệm.
Công
việc
của
Microsoft
AI
được
hướng
dẫn
bởi
bộ
6
nguyên
tắc
cốt
lõi
và
công
ty
đang
áp
dụng
những
nguyên
tắc
đó
vào
thực
tế
trên
toàn
công
ty
để
phát
triển
và
triển
khai
AI
sẽ
có
tác
động
tích
cực
đến
xã
hội.
Các
nhân
viên
Công
ty
FPT
AI
trong
giờ
làm
việcẢnh:
FPT
cung
cấp
Bảo
đảm
tính
hội
nhập
quốc
tế
Ở
trong
nước,
giới
làm
công
nghệ
ở
Việt
Nam
vốn
rất
nhạy
bén
về
công
nghệ
đã
nhanh
chóng
tham
gia
cuộc
chơi
AI,
đặc
biệt
là
phát
triển
các
ứng
dụng
AI
tạo
sinh.
Ông
Trung
Huỳnh,
CEO,
nhà
sáng
lập
Actable
AI
và
ChatBD,
cho
biết
Việt
Nam
đang
ứng
dụng
mạnh
mẽ
AI
trong
nhiều
lĩnh
vực
như
ngân
hàng,
y
tế,
giáo
dục,
thương
mại
điện
tử...
Theo
ông
Vũ
Anh
Tú,
Giám
đốc
Công
nghệ
của
Tập
đoàn
FPT,
hầu
hết
sản
phẩm,
giải
pháp
AI
này
đều
do
các
công
ty
công
nghệ
Việt
Nam
phát
triển.
Trước
sự
phát
triển
nhanh
về
nghiên
cứu
và
đầu
tư
AI,
theo
các
chuyên
gia,
các
cơ
quan
chức
năng
của
Việt
Nam
cần
phải
nhanh
chóng
vào
cuộc,
sớm
xây
dựng
bộ
khung
pháp
lý
để
bảo
đảm
phát
triển
và
sử
dụng
AI
một
cách
có
trách
nhiệm,
an
toàn.
Bên
cạnh
đó,
cần
tham
khảo
cách
thế
giới
làm
và
bảo
đảm
các
quy
định
mang
tính
hội
nhập
quốc
tế
cao,
có
thể
khai
thác
tối
đa
các
ưu
thế
của
AI,
đồng
thời
giảm
thiểu
thấp
nhất
các
mặt
trái
của
nó.
Đặc
biệt
là
ngăn
ngừa
các
hành
vi
lạm
dụng
công
nghệ
này
cho
những
mục
đích
xấu,
có
hại
cho
xã
hội
và
vi
phạm
pháp
luật.
Song
song
với
bộ
khung
quản
lý
của
nhà
nước,
các
tổ
chức,
hiệp
hội
có
liên
quan
cũng
cần
có
những
bộ
quy
tắc
ứng
xử
có
trách
nhiệm
trong
việc
phát
triển
và
sử
dụng
AI
trong
lĩnh
vực
của
mình.
Việt
Nam
xác
định
AI
là
công
nghệ
nền
tảng
của
cách
mạng
Công
nghiệp
lần
thứ
tư,
góp
phần
quan
trọng
tạo
bước
phát
triển
đột
phá
về
năng
lực
sản
xuất,
nâng
cao
năng
lực
cạnh
tranh
quốc
gia,
thúc
đẩy
phát
triển
kinh
tế
tăng
trưởng
bền
vững.
Mục
tiêu
đến
năm
2025,
AI
được
ứng
dụng
rộng
rãi
trong
hành
chính
công,
dịch
vụ
công
trực
tuyến
giúp
giảm
thời
gian
xử
lý
công
việc,
nhân
lực
bộ
máy,
giảm
thời
gian
chờ
đợi
và
chi
phí
của
người
dân.
Việt
Nam
cũng
đã
đưa
ra
định
hướng
chiến
lược
cho
công
cuộc
phát
triển
AI
ở
Việt
Nam,
trong
đó
nhấn
mạnh
phát
triển
và
ứng
dụng
AI
lấy
con
người
và
doanh
nghiệp
làm
trung
tâm,
tránh
lạm
dụng
công
nghệ
và
xâm
phạm
quyền,
lợi
ích
hợp
pháp
của
tổ
chức,
cá
nhân.
Xây
dựng
quy
chuẩn
sản
phẩm
Bộ
Thông
tin
và
Truyền
thông
được
giao
nhiệm
vụ
xây
dựng
và
hoàn
thiện
bổ
sung
các
văn
bản
pháp
luật
về
giao
dịch
điện
tử,
về
thiết
lập
và
chia
sẻ
dữ
liệu,
về
các
khung
thể
chế
thử
nghiệm,
tạo
ra
một
không
gian
thử
nghiệm
thuận
lợi
với
khung
chính
sách
pháp
lý
riêng
để
tiến
hành
thử
nghiệm
AI
trong
các
lĩnh
vực
có
tiềm
năng;
xây
dựng
các
tiêu
chuẩn,
quy
chuẩn
kỹ
thuật
định
dạng
về
công
nghệ
và
sản
phẩm
AI.
Bộ
Công
an
xây
dựng
và
hoàn
thiện
bổ
sung
các
văn
bản
pháp
luật
về
bảo
vệ
quyền
riêng
tư,
quyền
con
người,
về
an
ninh
trật
tự
có
liên
quan
đến
hoạt
động
phát
triển
và
ứng
dụng
AI
và
về
bảo
đảm
an
toàn
an
ninh
mạng
cho
các
hoạt
động
liên
quan
tới
AI.
Anh
Phúc
http://dlvr.it/SzTLb4
Không có nhận xét nào