tin tưc hăng ngay
vị trí của bạn:tin tưc hăng ngay > sự giải trí > Tranh chấp AI của Scarlett Johansson gợi lại quá khứ xám xịt của Thung lũng Silicon

Tranh chấp AI của Scarlett Johansson gợi lại quá khứ xám xịt của Thung lũng Silicon

thời gian:2024-06-02 15:53:58 Nhấp chuột:67 hạng hai
SABA E-SPORTS“Di chuyển nhanh và phá vỡ mọi thứ” là phương châm do chàng trai trẻ Mark Zuckerberg đặt ra cách đây hai thập kỷ. Câu nói này vẫn còn đọng lại trong giới công nghệ. Cụm từ này tượng trưng cho điều tồi tệ nhất của Thung lũng Silicon: tham vọng tàn nhẫn và sự kiêu ngạo đáng kinh ngạc, liều lĩnh, đổi mới vì lợi nhuận. Tôi nhớ lại câu nói này trong tuần này khi nữ diễn viên Hollywood Scarlett Johansson xung đột với Nền tảng trí tuệ nhân tạo mở (OpenAI). Cô Johnson khai rằng cả cô và người đại diện đều từ chối cho phép cô lồng tiếng cho một sản phẩm mới có tên Chat Generation Pretrainer (ChatGPT), nhưng khi sản phẩm mới ra mắt, các giọng nói rất giống nhau. OpenAI phủ nhận đây là sự bắt chước có chủ ý. Và OpenAI không được định hình từ khuôn đó. Nó bắt đầu như một tổ chức phi lợi nhuận với mục tiêu mang lại bất kỳ lợi nhuận bổ sung nào cho hoạt động kinh doanh. Khi ra mắt chi nhánh vì lợi nhuận vào năm 2019, họ cho biết họ sẽ được lãnh đạo bởi một chi nhánh phi lợi nhuận và lợi nhuận của nhà đầu tư sẽ bị giới hạn. Không phải ai cũng hài lòng về sự thay đổi này - đây được cho là lý do chính khiến người đồng sáng lập Elon Musk quyết định rời đi. Cuối năm ngoái, Giám đốc điều hành OpenAI Sam Altman đã bất ngờ bị ban giám đốc sa thải, giữa những ý kiến ​​cho rằng ông muốn đi xa hơn sứ mệnh ban đầu. Nhưng chúng tôi không thể chắc chắn về tuyên bố đó. Tuy nhiên, ngay cả khi OpenAI hướng tới lợi nhuận nhiều hơn, nó vẫn phải đối mặt với trách nhiệm của mình. Trong thế giới hoạch định chính sách, hầu hết mọi người đều đồng ý rằng cần phải đặt ra ranh giới rõ ràng để hạn chế các công ty như OpenAI trước khi thảm họa xảy ra. Cho đến nay, những gã khổng lồ AI về cơ bản vẫn đang nói chuyện trên giấy. Tại Hội nghị thượng đỉnh về an ninh AI đầu tiên trên thế giới được tổ chức cách đây sáu tháng, một nhóm lãnh đạo các công ty công nghệ đã ký cam kết tự nguyện tạo ra các sản phẩm an toàn, có trách nhiệm nhằm tối đa hóa lợi ích của công nghệ AI trong khi giảm thiểu rủi ro ở mức thấp nhất. Nguy cơ mà họ mô tả giống như một cơn ác mộng, giống như những cảnh trong phim “Kẻ hủy diệt” và “Armageddon”, trong đó AI vượt khỏi tầm kiểm soát và hủy diệt loài người. Chương trình tiếng Quảng Đông quốc tế của BBC điểm lại các sự kiện quốc tế trong tuần, tin tức từ khắp eo biển Đài Loan và bốn nơi cũng như tình hình ở Vương quốc Anh. Ngoài ra còn có các chuyên đề đặc biệt: “Nhà báo Lại Hồng”, “Phong cách sống người Anh” và “Người Trung Quốc nói về thế giới”. Tuần trước, một dự thảo báo cáo của chính phủ Anh từ 30 chuyên gia độc lập đã kết luận rằng “chưa có bằng chứng” nào cho thấy AI có thể tạo ra vũ khí sinh học hoặc thực hiện các cuộc tấn công mạng tinh vi. Khi hội nghị thượng đỉnh được triệu tập lại vào đầu tuần này, từ "an ninh" đã bị xóa hoàn toàn khỏi tiêu đề. Một số người trong lĩnh vực này từ lâu đã nói rằng mối đe dọa trước mắt hơn do các công cụ AI gây ra là chúng sẽ thay thế công việc hoặc không nhận dạng được màu da. Tiến sĩ Rumman Chowdhury, một chuyên gia về đạo đức AI, cho biết đây là những vấn đề thực sự. Có nhiều vấn đề phức tạp hơn. Báo cáo cho biết hiện tại không có cách nào đáng tin cậy để hiểu chính xác lý do tại sao các công cụ AI lại tạo ra kết quả như vậy - ngay cả các nhà phát triển của chúng cũng không chắc chắn. Chương trình kiểm tra bảo mật hiện được thiết lập "Red Teaming" (Red Teaming), trong đó người đánh giá cố tình khiến các công cụ AI hoạt động không phù hợp, không có hướng dẫn thực hành tốt nhất. Tại hội nghị thượng đỉnh tiếp theo do Anh và Hàn Quốc đồng tổ chức tại Seoul trong tuần này, các công ty công nghệ đã cam kết sẽ loại bỏ một sản phẩm nếu nó không đáp ứng các ngưỡng an toàn nhất định - nhưng những tiêu chuẩn đó sẽ không được thực hiện cho đến hội nghị thượng đỉnh tiếp theo vào năm 2025. Sẽ chắc chắn. Ngay cả khi các chuyên gia tranh luận về bản chất của mối đe dọa AI, các công ty công nghệ vẫn tiếp tục tung ra sản phẩm. Chỉ trong vài ngày qua, ChatGPT-4O của OpenAI, Project Astra của Google và CoPilot+ của Microsoft đã được ra mắt. Viện An toàn AI từ chối cho biết liệu họ có cơ hội thử nghiệm các công cụ này trước khi chúng được phát hành hay không. OpenAI cho biết họ có 10 quy trình bảo mật. Nhưng đầu tuần này, một kỹ sư cấp cao của công ty, người tập trung vào vấn đề an toàn, đã từ chức, nói rằng bộ phận của anh ấy đã “đi ngược chiều gió” trong nội bộ. Jan Leike tại “X” viết: “Trong vài năm qua, văn hóa và quy trình an toàn đã nhường chỗ cho những sản phẩm sáng bóng”. Tất nhiên, có những nhóm khác tại OpenAI tiếp tục tập trung vào các vấn đề bảo mật. Nhưng không có sự giám sát chính thức và độc lập về những gì các công ty này thực sự đang làm. Andrew Strait, phó giám đốc Viện Ada Lovelace, một tổ chức nghiên cứu độc lập, cho biết: “Các thỏa thuận tự nguyện về cơ bản chỉ là cách để các doanh nghiệp tự chấm điểm cho mình”. "Vốn dĩ nó không thay thế các quy tắc ràng buộc và có thể thực thi về mặt pháp lý cần thiết để khuyến khích sự phát triển có trách nhiệm của những công nghệ này." "Làm cách nào để chúng tôi buộc họ phải chịu trách nhiệm về những gì họ nói, giống như chúng tôi giữ các công ty dược phẩm hoặc như các ngành có rủi ro cao khác." làm gì? "Các quy tắc cứng rắn hơn đang đến. Liên minh Châu Âu đã thông qua Đạo luật Trí tuệ Nhân tạo (Đạo luật AI), đạo luật đầu tiên thuộc loại này trên thế giới và đưa ra các hình phạt cứng rắn đối với các hành vi vi phạm. Nhưng một số người tin rằng điều này sẽ ảnh hưởng đến người dùng - những người sẽ phải tự tiến hành đánh giá rủi ro đối với các công cụ AI - hơn là các công ty phát triển AI. Giáo sư Hall nói: “Chúng ta cần tiến dần dần tới các quy định pháp lý, nhưng không quá vội vàng”. “Thật sự rất khó để thiết lập các nguyên tắc quản trị toàn cầu mà mọi người đều đăng ký. Chúng tôi cũng cần đảm bảo rằng nó thực sự mang tính toàn cầu chứ không chỉ bảo vệ thế giới phương Tây và Trung Quốc.” tụt hậu xa so với sự đổi mới. Câu hỏi đặt ra là liệu chúng ta có thể thuyết phục được những gã khổng lồ công nghệ chờ đợi sự xuất hiện của họ hay không. Nữ diễn viên Hollywood Scarlett Johansson nói rằng cô "sốc" và "tức giận" khi OpenAI tung ra một chatbot có giọng nói "rất giống" với giọng của cô. Nữ diễn viên cho biết trước đây cô đã từ chối lời mời lồng tiếng cho chatbot mới của OpenAI. Nhưng khi chatbot mới ra mắt vào tuần trước, các nhà bình luận đã nhanh chóng so sánh giọng của Sky với giọng của Johnson trong bộ phim Her năm 2013. OpenAI cho biết hôm thứ Hai rằng họ sẽ xóa bài phát biểu nhưng khẳng định đây không phải là "bản sao" của Johnson. Tuy nhiên, trong một tuyên bố được BBC xem vào tối thứ Hai, Johnson cáo buộc công ty và người sáng lập Sam Altman đã cố tình sao chép giọng nói của cô. Cô viết: “Khi nghe bản demo được phát hành, tôi đã bị sốc, tức giận và không tin rằng ông Altman sẽ theo đuổi một giọng hát rất giống tôi”. "Ông Altman thậm chí còn cho rằng sự giống nhau là có chủ ý khi tweet từ 'cô ấy' - ám chỉ đến Samantha, nhân vật chatbot mà tôi lồng tiếng trong phim, người tương tác với con người. Bộ phim Her năm 2013 lấy bối cảnh trong tương lai gần, nơi Joaquin Nhân vật của Phoenix phải lòng hệ điều hành nữ được nhân cách hóa của anh ấy, Johansson) lồng tiếng cho hệ thống này. Nữ diễn viên hai lần được đề cử giải Oscar cho biết Altman ban đầu đã tiếp cận cô vào tháng 9 năm ngoái về việc lồng tiếng cho chatbot mới. Johnson viết: “(Altman) nói với tôi rằng anh ấy cảm thấy việc để tôi lên tiếng cho hệ thống có thể thu hẹp khoảng cách giữa các công ty công nghệ và sự sáng tạo, giúp người tiêu dùng thích ứng với sự thay đổi địa chấn giữa con người và AI”. Cô nói thêm rằng Altman đã liên hệ với người đại diện của cô hai ngày trước khi chatbot "Sky" được phát hành, kêu gọi Johnson xem xét lại quyết định ban đầu của cô là từ chối làm việc với công ty. Nữ diễn viên cho biết thêm, cô đã phải thuê luật sư và gửi hai lá thư pháp lý cho công ty để xác định nguồn gốc của âm thanh. Cô viết: “Khi tất cả chúng ta đang vật lộn với vấn đề về deepfake và bảo vệ chân dung, tác phẩm cũng như danh tính của chính mình, tôi tin rằng những vấn đề này xứng đáng được làm rõ tuyệt đối. Trong một tuyên bố do OpenAI gửi tới BBC, Altman phủ nhận việc công ty đang cố gắng bắt chước giọng nói của Johnson. Ông viết: “Giọng của 'Sky' không phải của Scarlett Johansson và (công ty) không bao giờ có ý định bắt chước giọng của cô ấy. "Chúng tôi đã chọn diễn viên lồng tiếng cho 'Sky' trước khi liên hệ với cô Johnson. Vì tôn trọng cô Johnson, chúng tôi đã tạm dừng việc sử dụng giọng nói của 'Sky' trong các sản phẩm của mình. Chúng tôi rất tiếc vì đã không hợp tác với chúng tôi." Bà Johnson. "Giao tiếp tốt hơn," ông viết. Ngoài ra, công ty cho biết họ đang "làm việc để tạm dừng" giọng nói, đồng thời đăng lên "X" (trước đây là: Twitter) để trả lời các câu hỏi về cách chọn giọng nói. OpenAI cho biết trong bài báo rằng năm giọng nói mà chatbot sử dụng được lấy mẫu từ các diễn viên lồng tiếng mà nó làm việc cùng. Chỉ sáu tháng trước, các diễn viên Hollywood đã đồng ý chấm dứt cuộc đình công của họ. Những người đình công kêu gọi mức lương cao hơn và bảo vệ việc sử dụng AI. Cuộc tổng đình công làm tê liệt ngành giải trí. Johnson đã tham gia hoạt động trong ngành năm ngoái, một phần là về cách các hãng phim sẽ sử dụng AI để bắt chước khuôn mặt và giọng nói của diễn viên. Công ty cấp phép giọng nói AI Voice-Swap cho biết: “Vào thời điểm mà sự nghi ngờ về AI và mối lo ngại về tác hại tiềm ẩn của nó đang lan rộng, việc sử dụng giọng nói của người khác mà không được phép là hành vi xâm phạm đặc biệt”. "Cho dù OpenAI sử dụng giọng của Scarlett Johansson hay giọng tương tự để huấn luyện giọng 'Sky' mới thì sự thật là cô ấy đã từ chối sự cho phép và danh tính của cô ấy đã bị lợi dụng." bằng cách này, nó sẽ tạo tiền lệ nguy hiểm cho bản quyền và quyền đồng ý. "OpenAI đã phải đối mặt với nhiều thách thức pháp lý khác nhau về cách công ty sử dụng thông tin có bản quyền trực tuyến. Vào tháng 12, tờ New York Times cho biết họ đã lên kế hoạch đệ đơn kiện công ty, cáo buộc công ty này sử dụng “hàng triệu” câu chuyện do hãng này xuất bản để đào tạo mô hình ChatGPT AI của mình. Vào tháng 9, các tác giả George R.R. Martin và John Grisham cũng đã công bố một yêu cầu được đề xuất, cáo buộc rằng hệ thống này đã vi phạm bản quyền của họ trong quá trình đào tạo.

秀傳醫院指出,陳家姊姊自從5月初再次陷入重度昏迷,昏迷指數從11降為3之後,狀況就沒有再變化,雙眼瞳孔放大、對光無反應、四肢也無反應,仍屬命危階段,相關療程也都告一段落,醫院持續為她做按摩復健。

Đường dây nóng dịch vụ
Trang web chính thức:{www.zgcd88.com/}
Thời gian hoạt động:Thứ Hai đến Thứ Bảy(09:00-18:00)
liên hệ chúng tôi
URL:www.zgcd88.com/
Theo dõi tài khoản công khai

Powered by tin tưc hăng ngay bản đồ RSS bản đồ HTML

Copyright 站群系统 © 2013-2024 tin tưc hăng ngay Đã đăng ký Bản quyền