"Thông tin được dựa trên dữ liệu có sẵn đến tháng 9 năm 2021". Đó là cảnh báo mà người dùng ChatGPT nhận được khi cố gắng xác định triển vọng của tài sản trên thị trường hiện tại hoặc trong tương lai. Khó có thể cho rằng dữ liệu thị trường "sau tháng 9 năm 2021" không thể truy cập được bởi trí tuệ nhân tạo. Thay vào đó, chương trình có chứa lệnh cấm bất kỳ dự báo rõ ràng nào về giá cổ phiếu và tiền tệ.
Tuy nhiên, gần đây (vào đầu tháng 6), một nghiên cứu so sánh đã được tiến hành, trong đó đồng tiền điện tử Bitcoin được đưa ra để dự đoán tương lai bởi nhiều trí tuệ nhân tạo. Sáu trợ lý ảo phổ biến đã được hỏi liệu Bitcoin có thể trở thành tiền tệ dự trữ toàn cầu hay không.
Các "chuyên gia" được mời tham gia bao gồm:
- ChatGPT 3.5 (OpenAI)
- ChatGPT 4 (OpenAI)
- Bard (Google)
- Claude Instant (Anthropic)
- Claude 4 (Anthropic)
- Bing AI
Như dự đoán, các dự báo của trí tuệ nhân tạo không có sự cụ thể. Thực tế, bất kỳ ai hiểu biết về chủ đề này đều có thể đưa ra các điều kiện tăng trưởng của tiền điện tử đầu tiên trên thế giới. Tự đánh giá, các yếu tố sau được đưa ra như các luận điểm.
Tiềm năng của Bitcoin và các tài sản kỹ thuật số khác không rõ ràng do "vấn đề và sự không chắc chắn hiện tại". Tình trạng tiền tệ dự trữ trong tương lai phụ thuộc vào "các sự kiện hiện tại và sự tiến hóa của hệ sinh thái tiền điện tử" (ChatGPT 3.5).
Các ngân hàng trung ương và các tổ chức tài chính khác cần chấp nhận rộng rãi Bitcoin, cũng như tăng tính ổn định của giá và cải thiện công nghệ blockchain. Điều này sẽ mất khoảng 10 năm. Tuy nhiên, cũng có thể rằng Bitcoin sẽ không bao giờ trở thành tiền tệ dự trữ toàn cầu (Bard).
Xác suất Bitcoin được công nhận là tiền tệ dự trữ từ thấp đến trung bình sẽ xảy ra trong vòng 10-15 năm tới (Claude 4).
"Các rào cản đáng kể" của Bitcoin như vấn đề về tính ổn định và công nhận sẽ ngăn cản nó trở thành tài sản dự trữ toàn cầu trong vòng 5-10 năm tới (Claude Instant).
Đồng tiền điện tử đầu tiên hiện vẫn quá biến động, đang phải đối mặt với sự cạnh tranh từ các tài sản khác và có những rủi ro công nghệ cao. Do đó, để đạt được vị trí vững chắc, Bitcoin sẽ cần từ vài năm đến vài thập kỷ (ChatGPT 4).
Một trong những điều kiện quan trọng là phải quản lý và điều chỉnh trạng thái pháp lý của đồng tiền, thuế và tuân thủ các yêu cầu quy định (Bing AI).
Đồng ý rằng tất cả các điều kiện này, đặc biệt là các ngày hạn chót, hiện tại ít được áp dụng trong thực tế.
Tuy nhiên, thất bại trong "chuyên môn hẹp" này không ngăn cản AI trở nên phổ biến trong các lĩnh vực khác. Và giống như bất kỳ đổi mới nào, việc mở rộng tác động của nó trong các lĩnh vực khác nhau của cuộc sống con người cũng đi kèm với những dự đoán u ám và đáng sợ. Ví dụ, Matt Clifford, cố vấn về trí tuệ nhân tạo của Thủ tướng Anh, đã đưa ra ý kiến sơ bộ của mình về AI với câu nói "nó sẽ giết chết nhiều người".
Trong nghĩa đen, trí tuệ nhân tạo được gắn liền với bất kỳ loại vũ khí nào cũng có thể trở thành công cụ phá hủy. Tuy nhiên, ngay cả bây giờ khi ChatGPT tạo ra văn bản và hình ảnh, nó có thể khiến nhiều người mất việc làm. Nhờ sử dụng các phương pháp không thể được thực hiện bởi con người và tăng năng suất lao động, trí tuệ nhân tạo sẽ thay thế các chuyên gia trong một số lĩnh vực trên thị trường lao động.
Làm thế nào để điều này xảy ra? Có lẽ theo nguyên tắc tương tác giữa hai trí tuệ - trí tuệ nhân tạo và con người. Với một mức độ hòa trộn nào đó. Ví dụ, gần đây đã có thông tin trên mạng rằng một luật sư của một công ty luật đang đối mặt với hình phạt vì đã sử dụng ChatGPT để chuẩn bị tài liệu cho khách hàng. Công ty Apple, chính nó đang phát triển các công nghệ trí tuệ nhân tạo, đã cấm nhân viên của mình sử dụng ChatGPT và các công cụ bên thứ ba khác dựa trên trí tuệ nhân tạo. Và hiện tại, bạn có thể tìm thấy hai yêu cầu ban đầu có vẻ đối lập trong các thông báo tuyển dụng nhân viên:
- ChatGPT - Nhà văn
- Soạn thảo văn bản mà không sử dụng trí tuệ nhân tạo
Chỉ có trí tuệ nhân tạo mới biết tương lai thuộc về hướng nào (đùa).
Tuy nhiên, càng nhiều người thể hiện bản thân trên internet, thì càng có nguy cơ bị nhắm mục tiêu bởi trí tuệ nhân tạo. Ví dụ, một câu chuyện không vui đã xảy ra với người dẫn chương trình radio người Mỹ từ tiểu bang Georgia, Mark Waters. Trong một yêu cầu liên quan đến một vụ kiện có thật, bot ChatGPT đã nhầm lẫn và đưa ra tên ông là người bị kiện, tức là buộc tội ông phạm lừa đảo và tham ô. Trên thực tế, Mark Waters chưa bao giờ làm việc cho tổ chức được đề cập và tất nhiên ông không phải là bị can trong vụ kiện đó.
Hiện tại, người này đã đệ đơn kiện OpenAI và đang yêu cầu ChatGPT phải trả tiền phạt và bồi thường. Điều này đưa chúng ta đến vụ kiện đầu tiên trong lịch sử giữa con người và đối thủ nhân tạo. "OpenAI đã làm xấu danh tiếng của khách hàng tôi và viết ra một lời nói dối đáng xấu hổ về họ", luật sư của ông ta nói.
Tuy nhiên, trong giao diện ChatGPT, đã được đặt miễn trừ trách nhiệm từ OpenAI và cảnh báo rằng trò chuyện bot "có thể cung cấp thông tin không chính xác về con người, địa điểm hoặc sự kiện". Vì ChatGPT lấy thông tin từ các nguồn mở đã được đăng trên internet, việc tìm ra người chịu trách nhiệm và có tội sẽ rất khó khăn. Nhưng cùng với đó, OpenAI quảng cáo công nghệ của mình như là "nguồn dữ liệu đáng tin cậy", cho phép "nhận được câu trả lời" và "học điều mới".
Tuy nhiên, trên thế giới, nhận thức về sức mạnh biến đổi của công nghệ mới đang ngày càng được nhận thức rõ ràng hơn. Không thể tránh khỏi ảnh hưởng của nó. Hiện nay, chúng ta đang chứng kiến những nỗ lực của nhiều người chơi trí tuệ nhân tạo (AI) - quy định, khách hàng và nhà đầu tư - cố gắng sống chung trên một lĩnh vực pháp lý duy nhất ở mỗi quốc gia.
Sự riêng tư và bảo vệ cá nhân là điểm đau nhức nhất trong lịch sử của các trò chuyện với trí tuệ nhân tạo. Chúng có thể thu thập tất cả thông tin có sẵn về mỗi người nổi tiếng, cũng như về bất kỳ cá nhân hoặc sự kiện nào. Và tạo ra dữ liệu này tùy theo yêu cầu. Và chính vì lý do này, số lượng dự án AI đang tăng lên. Không có sự nghịch lý nào trong sự phát triển như vậy.
Một mặt, tất cả các quốc gia hàng đầu trên thế giới đang cố gắng bảo vệ không gian thông tin của mình khỏi sự ảnh hưởng của đối thủ cạnh tranh. Chính vì lý do này, từ tháng 5 ở châu Âu, ví dụ như, đã chậm chạp việc ra mắt chat-bot Bard của Google. Vào mùa xuân năm nay, Ý đã chặn ChatGPT. Cơ quan quản lý thông tin (ICO) của Anh cũng đã cảnh báo về các biện pháp có thể được áp dụng nếu dữ liệu cá nhân của người dùng được sử dụng để phát triển chat-bot.
Tuy nhiên, một trong những cách để đối phó với đối thủ cạnh tranh là tạo ra trí tuệ nhân tạo của riêng mình.
Ví dụ, tập đoàn Samsung của Hàn Quốc đã quyết định tạo ra một chat-bot tương tự phổ biến (tự động hóa mua sắm và chi tiêu, dịch các văn bản khác nhau) sau khi dữ liệu bị rò rỉ do việc sử dụng ChatGPT. Nó dự kiến sẽ được ra mắt vào tháng 12 năm 2023.
Thông báo về việc tạo ra dự án trí tuệ nhân tạo của riêng họ tại Pháp. Công ty khởi nghiệp Mistral AI đã thu được 105 triệu euro trong giai đoạn đầu tiên - một số tiền tài trợ kỷ lục ở châu Âu. Theo những người phát triển Mistral AI, dự án này dự kiến sẽ được ra mắt vào đầu năm 2024 và được trang bị "mô hình ngôn ngữ lớn" tương tự như trí tuệ nhân tạo đằng sau ứng dụng ChatGPT.
Dự án mạng tính toán trí tuệ nhân tạo phi tập trung Gensyn, được khởi chạy vào tháng 6 tại Luân Đôn, đã thu hút được khoảng 43 triệu đô la Mỹ.
Không có nghi ngờ gì rằng các khoản tài trợ này xác nhận sự bùng nổ của trí tuệ nhân tạo. Ngoài ra, châu Âu muốn tạo ra các dự án mạnh mẽ có thể cạnh tranh với các dự án của Thung lũng Silicon Mỹ - OpenAI của Microsoft hoặc DeepMind của Google.
Nhắc lại rằng chatbot Bard (Google) vừa mới được ra mắt vào tháng Ba. Công ty đưa trí tuệ nhân tạo vào vai trò bổ sung cho tìm kiếm truyền thống. Để làm điều này, Bard có một trường văn bản, nơi người dùng có thể nhập bất kỳ câu hỏi nào mà họ quan tâm. Tuy nhiên, giống như các "đồng nghiệp" của mình, Bard không mạnh về việc xử lý các sự kiện. Tuy nhiên, nó đã cho thấy chất lượng cạnh tranh cao ở 180 quốc gia, bao gồm Mỹ và Anh.
Vào tháng 5, Google quyết định đưa chatbot này vào sử dụng cho người dân châu Âu. Tuy nhiên, việc triển khai chatbot Bard với trí tuệ nhân tạo tại Liên minh châu Âu đã bị hoãn lại do các vấn đề liên quan đến bảo mật. Bắt đầu chủ đề trong bài viết ChatGPT có đáng sợ không và táo với sâu có liên quan gì đến nó? Tiếp tục...