Những gì trí tuệ nhân tạo thực sự có thể làm ngày nay
Những gì trí tuệ nhân tạo thực sự có thể làm ngày nay
Anonim

Cảnh báo spoiler: Còn lâu nữa mới có cuộc nổi dậy của máy móc.

Những gì trí tuệ nhân tạo thực sự có thể làm ngày nay
Những gì trí tuệ nhân tạo thực sự có thể làm ngày nay

Khi Elon Musk giới thiệu robot hình người Tesla Bot, có vẻ như một cuộc cách mạng khoa học mới đang cận kề. Thêm một chút nữa - và trí tuệ nhân tạo (AI) sẽ vượt qua con người, và máy móc sẽ thay thế chúng ta trong công việc. Tuy nhiên, Giáo sư Gary Marcus và Ernest Davis, đều là những chuyên gia nổi tiếng về AI, được yêu cầu không nên vội vàng đưa ra kết luận như vậy.

Trong Khởi động lại trí tuệ nhân tạo, các nhà nghiên cứu giải thích tại sao công nghệ hiện đại khác xa lý tưởng. Được sự cho phép của nhà xuất bản "Alpina PRO" Lifehacker xuất bản một đoạn trích từ chương đầu tiên.

Tại thời điểm này, có một khoảng cách rất lớn - một hố sâu thực sự - giữa tham vọng của chúng ta và thực tế của trí tuệ nhân tạo. Lỗ hổng này đã nảy sinh do ba vấn đề cụ thể chưa được giải quyết, mỗi vấn đề đều phải được giải quyết một cách trung thực.

Đầu tiên là cái mà chúng ta gọi là cả tin, dựa trên thực tế là con người chúng ta chưa thực sự học cách phân biệt giữa con người và máy móc, và điều này khiến chúng ta dễ dàng đánh lừa chúng ta. Chúng ta gán trí thông minh cho máy tính bởi vì bản thân chúng ta đã tiến hóa và sống giữa những người mà phần lớn hành động của họ dựa trên những điều trừu tượng như ý tưởng, niềm tin và mong muốn. Hành vi của máy móc thường bề ngoài giống với hành vi của con người, vì vậy chúng ta nhanh chóng gán cho máy móc cùng một loại cơ chế cơ bản, ngay cả khi máy móc không có chúng.

Chúng ta không thể không nghĩ đến máy móc theo thuật ngữ nhận thức (“Máy tính của tôi nghĩ rằng tôi đã xóa tệp của mình”), bất kể các quy tắc đơn giản mà máy móc thực sự tuân theo. Nhưng những kết luận tự biện minh khi áp dụng cho con người có thể sai hoàn toàn khi áp dụng cho các chương trình trí tuệ nhân tạo. Theo nguyên lý cơ bản của tâm lý xã hội, chúng tôi gọi đây là lỗi cơ bản về giá trị.

Một trong những trường hợp sớm nhất của lỗi này xảy ra vào giữa những năm 1960, khi một chatbot tên là Eliza thuyết phục một số người rằng anh ta thực sự hiểu những điều họ đang nói với anh ta. Trên thực tế, Eliza chỉ chọn từ khóa, lặp lại điều cuối cùng mà người đó nói với cô, và trong một tình huống bế tắc, cô đã sử dụng các thủ thuật trò chuyện thông thường như "Hãy kể cho tôi nghe về thời thơ ấu của bạn". Nếu bạn đề cập đến mẹ của mình, bà ấy sẽ hỏi bạn về gia đình của bạn, mặc dù bà ấy không biết gia đình thực sự là gì hay tại sao nó lại quan trọng đối với mọi người. Đó chỉ là một trò bịp bợm, không phải là sự thể hiện của trí thông minh thực sự.

Mặc dù thực tế là Eliza không hiểu gì về mọi người, nhưng nhiều người dùng đã bị đánh lừa bởi những cuộc đối thoại với cô ấy. Một số người đã dành hàng giờ để gõ các cụm từ trên bàn phím, nói chuyện theo cách này với Eliza, nhưng lại hiểu sai các thủ thuật của chatbot, nhầm lời nói của chú vẹt thành lời khuyên hữu ích, chân thành hoặc sự cảm thông.

Joseph Weisenbaum Người tạo ra Eliza.

Những người biết rất rõ rằng họ đang nói chuyện với một cỗ máy sẽ sớm quên đi sự thật này, cũng như những người yêu thích rạp hát gạt sự hoài nghi của họ sang một bên và quên rằng hành động mà họ chứng kiến không có quyền được gọi là thật.

Những người đối thoại của Eliza thường yêu cầu được phép trò chuyện riêng với hệ thống và sau cuộc trò chuyện này, bất chấp mọi lời giải thích của tôi, chiếc máy thực sự hiểu họ.

Trong các trường hợp khác, sai sót trong việc đánh giá tính xác thực có thể gây tử vong theo nghĩa đen của từ này. Vào năm 2016, một chủ sở hữu của một chiếc xe Tesla tự động đã tin tưởng rất nhiều vào sự an toàn dường như của chế độ lái tự động (theo các câu chuyện), anh ấy đã hoàn toàn đắm mình trong việc xem các bộ phim Harry Potter, để chiếc xe tự làm mọi thứ.

Mọi thứ diễn ra tốt đẹp - cho đến một lúc nào đó nó trở nên tồi tệ. Sau khi lái hàng trăm, thậm chí hàng nghìn km mà không xảy ra tai nạn, chiếc xe đã va chạm (theo mọi nghĩa của từ này) với một chướng ngại vật bất ngờ: một chiếc xe tải màu trắng băng qua đường cao tốc, và Tesla lao ngay vào gầm xe đầu kéo, khiến chủ xe tử vong tại chỗ. (Chiếc xe ô tô đã nhiều lần xuất hiện để cảnh báo tài xế nắm quyền điều khiển, nhưng tài xế tỏ ra quá thoải mái, không phản ứng nhanh).

Đạo lý của câu chuyện này rất rõ ràng: thực tế là một thiết bị có vẻ "thông minh" trong chốc lát hoặc hai (và thậm chí sáu tháng) hoàn toàn không có nghĩa là nó thực sự như vậy hoặc nó có thể đối phó với tất cả các trường hợp một người sẽ phản ứng đầy đủ.

Vấn đề thứ hai mà chúng tôi gọi là ảo tưởng về sự tiến bộ nhanh chóng: nhầm lẫn sự tiến bộ trong trí tuệ nhân tạo, gắn với giải quyết những vấn đề dễ, vì tiến bộ, gắn với giải những vấn đề thực sự khó. Ví dụ, điều này đã xảy ra với hệ thống IBM Watson: tiến trình của nó trong trò chơi Jeopardy! có vẻ rất hứa hẹn, nhưng trên thực tế, hệ thống hóa ra còn tiến xa hơn nhiều so với việc hiểu ngôn ngữ của con người so với dự đoán của các nhà phát triển.

Có thể chương trình AlphaGo của DeepMind cũng sẽ đi theo con đường tương tự. Trò chơi cờ vây, giống như cờ vua, là một trò chơi thông tin lý tưởng, nơi cả hai người chơi đều có thể nhìn thấy toàn bộ bàn cờ bất cứ lúc nào và tính toán hậu quả của các nước đi bằng bạo lực.

Trong hầu hết các trường hợp, trong cuộc sống thực, không ai biết điều gì một cách hoàn toàn chắc chắn; dữ liệu của chúng tôi thường không đầy đủ hoặc bị bóp méo.

Ngay cả trong những trường hợp đơn giản nhất, có rất nhiều điều không chắc chắn. Khi chúng tôi quyết định đi khám bệnh bằng cách đi bộ hay đi tàu điện ngầm (vì trời nhiều mây), chúng tôi không biết chính xác sẽ mất bao lâu để đợi tàu điện ngầm, liệu tàu có bị kẹt trên đường hay không, chúng tôi sẽ nhét mình vào cỗ xe như cá trích trong thùng hoặc chúng tôi sẽ bị ướt dưới mưa ngoài trời, không dám đi tàu điện ngầm, và bác sĩ sẽ phản ứng thế nào với việc chúng tôi đến muộn.

Chúng tôi luôn làm việc với thông tin mà chúng tôi có. Chơi cờ vây hàng triệu lần, hệ thống DeepMind AlphaGo chưa bao giờ đối mặt với sự không chắc chắn, nó chỉ đơn giản là không biết thế nào là thiếu thông tin hoặc không đầy đủ và không nhất quán, chưa kể đến sự phức tạp trong tương tác giữa con người với nhau.

Có một thông số khác khiến các trò chơi trí óc như trở nên rất khác so với thế giới thực và điều này lại liên quan đến dữ liệu. Ngay cả những trò chơi phức tạp (nếu các quy tắc đủ nghiêm ngặt) có thể được mô hình hóa gần như hoàn hảo, vì vậy hệ thống trí tuệ nhân tạo chơi chúng có thể dễ dàng thu thập lượng dữ liệu khổng lồ mà chúng cần đào tạo. Vì vậy, trong trường hợp cờ vây, một máy có thể mô phỏng một trò chơi với mọi người bằng cách chơi với chính nó; ngay cả khi hệ thống cần terabyte dữ liệu, nó sẽ tự tạo ra nó.

Do đó, các lập trình viên có thể có được dữ liệu mô phỏng hoàn toàn sạch với ít hoặc không tốn kém. Ngược lại, trong thế giới thực, dữ liệu hoàn toàn sạch sẽ không tồn tại, không thể mô phỏng nó (vì các quy tắc của trò chơi liên tục thay đổi), và càng khó khăn hơn để thu thập nhiều gigabyte dữ liệu có liên quan bằng cách dùng thử. và lỗi.

Trên thực tế, chúng tôi chỉ có một số nỗ lực thử nghiệm các chiến lược khác nhau.

Ví dụ, chúng ta không thể lặp lại một lần đến gặp bác sĩ 10 triệu lần, dần dần điều chỉnh các thông số quyết định trước mỗi lần khám, để cải thiện đáng kể hành vi của chúng ta về lựa chọn phương tiện đi lại.

Nếu các lập trình viên muốn đào tạo một robot để giúp đỡ người già (ví dụ, giúp đưa người bệnh lên giường), mỗi bit dữ liệu sẽ có giá trị bằng tiền thật và thời gian thực của con người; không có cách nào để thu thập tất cả các dữ liệu cần thiết bằng cách sử dụng các trò chơi mô phỏng. Ngay cả những hình nộm thử nghiệm va chạm cũng không thể thay thế được người thật.

Cần phải thu thập dữ liệu về những người cao tuổi thực sự với các đặc điểm vận động của người già khác nhau, trên các loại giường khác nhau, các loại đồ ngủ khác nhau, các kiểu nhà khác nhau và ở đây bạn không thể mắc sai lầm, vì thả một người dù ở khoảng cách vài cách giường vài cm sẽ là một thảm họa. Trong trường hợp này, đang bị đe dọa là một tiến bộ nhất định (cho đến nay là cơ bản nhất) trong lĩnh vực này đã đạt được bằng cách sử dụng các phương pháp của trí tuệ nhân tạo hẹp. Các hệ thống máy tính đã được phát triển để chơi gần như ở cấp độ của những người chơi giỏi nhất trong trò chơi điện tử Dota 2 và Starcraft 2, trong đó tại bất kỳ thời điểm nào, chỉ một phần của thế giới trò chơi được hiển thị cho những người tham gia và do đó, mỗi người chơi phải đối mặt với vấn đề thiếu thông tin - điều mà với bàn tay nhẹ nhàng của Clausewitz được gọi là "sương mù của điều chưa biết." Tuy nhiên, các hệ thống đã phát triển vẫn còn tập trung rất hẹp và hoạt động không ổn định. Ví dụ, chương trình AlphaStar chơi trong Starcraft 2 chỉ học được một chủng tộc cụ thể từ nhiều loại nhân vật và hầu như không có diễn biến nào trong số này có thể chơi được như bất kỳ chủng tộc nào khác. Và, tất nhiên, không có lý do gì để tin rằng các phương pháp được sử dụng trong các chương trình này phù hợp để thực hiện khái quát hóa thành công trong các tình huống thực tế phức tạp hơn nhiều. cuộc sống thực. Như IBM đã phát hiện ra không chỉ một lần mà đã hai lần (đầu tiên trong cờ vua, và sau đó là Jeopardy!), Thành công trong các vấn đề từ một thế giới đóng không hoàn toàn đảm bảo thành công trong một thế giới mở.

Vòng tròn thứ ba của vực sâu được mô tả là sự đánh giá quá cao về độ tin cậy. Lặp đi lặp lại, chúng ta thấy rằng ngay khi mọi người với sự trợ giúp của trí tuệ nhân tạo tìm ra giải pháp cho một số vấn đề có thể hoạt động mà không bị lỗi trong một thời gian, họ sẽ tự động giả định rằng với sự sửa đổi (và với lượng dữ liệu lớn hơn một chút) sẽ hoạt động đáng tin cậy. thời gian. Nhưng điều này không nhất thiết phải như vậy.

Chúng tôi lại đi ô tô mà không có tài xế. Tương đối dễ dàng để tạo một bản demo về một chiếc xe tự hành sẽ lái một cách chính xác dọc theo làn đường được đánh dấu rõ ràng trên một con đường yên tĩnh; tuy nhiên, con người đã có thể làm điều này trong hơn một thế kỷ qua. Tuy nhiên, để các hệ thống này hoạt động trong những trường hợp khó khăn hoặc bất ngờ sẽ khó hơn nhiều.

Như Missy Cummings, giám đốc Phòng thí nghiệm Con người và Quyền tự chủ tại Đại học Duke (và là một cựu phi công chiến đấu của Hải quân Hoa Kỳ), đã nói với chúng tôi trong một email, câu hỏi không phải là một chiếc ô tô không người lái có thể đi được bao nhiêu dặm mà không gặp tai nạn. mà những chiếc xe này có thể thích ứng với các tình huống thay đổi. Theo Missy Cummings của cô, email cho các tác giả vào ngày 22 tháng 9 năm 2018., các phương tiện bán tự hành hiện đại "thường chỉ hoạt động trong một phạm vi điều kiện rất hẹp, điều này không nói lên được điều gì về việc chúng có thể hoạt động như thế nào trong những điều kiện ít hơn lý tưởng."

Trông hoàn toàn đáng tin cậy trên hàng triệu dặm thử nghiệm ở Phoenix không có nghĩa là hoạt động tốt trong thời kỳ gió mùa ở Bombay.

Sự khác biệt cơ bản này giữa cách các phương tiện tự hành hoạt động trong điều kiện lý tưởng (chẳng hạn như những ngày nắng trên đường nhiều làn ở ngoại ô) và những gì chúng có thể làm trong điều kiện khắc nghiệt có thể dễ dàng trở thành vấn đề thành công và thất bại của cả một ngành.

Với rất ít sự chú trọng vào việc lái xe tự động trong điều kiện khắc nghiệt và phương pháp luận hiện tại chưa phát triển theo hướng đảm bảo rằng tính năng lái tự động sẽ hoạt động chính xác trong những điều kiện mới bắt đầu được coi là có thật, có thể sẽ sớm nhận ra rằng hàng tỷ đô la đã được chi cho các phương pháp chế tạo ô tô tự lái đơn giản là không mang lại độ tin cậy khi lái xe như con người. Có thể là để đạt được mức độ tin cậy về kỹ thuật mà chúng ta cần, cần phải có các phương pháp tiếp cận khác biệt cơ bản với các phương pháp hiện tại.

Và ô tô chỉ là một ví dụ trong số rất nhiều loại tương tự. Trong nghiên cứu hiện đại về trí tuệ nhân tạo, độ tin cậy của nó đã bị đánh giá thấp trên toàn cầu. Điều này một phần là do hầu hết các phát triển hiện tại trong lĩnh vực này đều liên quan đến các vấn đề có khả năng chịu lỗi cao, chẳng hạn như đề xuất quảng cáo hoặc quảng bá sản phẩm mới.

Thật vậy, nếu chúng tôi giới thiệu cho bạn năm loại sản phẩm và bạn chỉ thích ba loại trong số chúng, thì sẽ không có hại gì xảy ra. Nhưng trong một số ứng dụng AI quan trọng cho tương lai, bao gồm ô tô không người lái, chăm sóc người cao tuổi và lập kế hoạch chăm sóc sức khỏe, độ tin cậy giống như con người sẽ rất quan trọng.

Sẽ không ai mua một con rô-bốt gia đình có thể bế ông bà lớn tuổi của bạn lên giường chỉ bốn lần trong số năm lần một cách an toàn.

Ngay cả trong những nhiệm vụ mà trí tuệ nhân tạo hiện đại về mặt lý thuyết nên xuất hiện trong điều kiện thuận lợi nhất có thể, những thất bại nghiêm trọng vẫn thường xuyên xảy ra, đôi khi trông rất buồn cười. Một ví dụ điển hình: máy tính, về nguyên tắc, đã học khá tốt cách nhận biết điều gì đang (hoặc đang xảy ra) trong hình ảnh này hoặc hình ảnh kia.

Đôi khi những thuật toán này hoạt động tuyệt vời, nhưng thường chúng tạo ra những lỗi hoàn toàn khó tin. Nếu bạn hiển thị một hình ảnh cho một hệ thống tự động tạo chú thích cho các bức ảnh chụp cảnh hàng ngày, bạn thường nhận được câu trả lời rất giống với những gì một con người sẽ viết; ví dụ: đối với cảnh bên dưới, nơi một nhóm người đang chơi trò ném đĩa, hệ thống tạo phụ đề được công khai hóa cao của Google sẽ đặt tên chính xác cho nó.

Hình 1.1. Nhóm thanh niên chơi trò ném đĩa (chú thích ảnh hợp lý, được tạo tự động bởi AI)
Hình 1.1. Nhóm thanh niên chơi trò ném đĩa (chú thích ảnh hợp lý, được tạo tự động bởi AI)

Nhưng năm phút sau, bạn có thể dễ dàng nhận được một câu trả lời hoàn toàn vô lý từ cùng một hệ thống, như đã xảy ra, chẳng hạn như với biển báo đường này, trên đó ai đó đã dán các nhãn dán: máy tính có tên là Người tạo ra hệ thống đã không giải thích được tại sao lại xảy ra lỗi này, nhưng những trường hợp như vậy không phải là hiếm. Chúng ta có thể giả định rằng hệ thống trong trường hợp cụ thể này đã phân loại (có lẽ về màu sắc và kết cấu) bức ảnh tương tự như các bức ảnh khác (từ đó nó học được) được gắn nhãn là "một tủ lạnh chứa nhiều thức ăn và đồ uống." Đương nhiên, máy tính không hiểu (mà một người có thể dễ dàng hiểu được) rằng một dòng chữ như vậy sẽ chỉ thích hợp trong trường hợp một hộp kim loại hình chữ nhật lớn với nhiều đồ vật khác nhau (và thậm chí không phải tất cả) bên trong. cảnh này là "một tủ lạnh với rất nhiều thức ăn và đồ uống."

Lúa gạo. 1.2. Tủ lạnh chứa đầy thực phẩm và đồ uống (tiêu đề hoàn toàn không thể nghe được, được tạo ra bởi cùng một hệ thống như trên)
Lúa gạo. 1.2. Tủ lạnh chứa đầy thực phẩm và đồ uống (tiêu đề hoàn toàn không thể nghe được, được tạo ra bởi cùng một hệ thống như trên)

Tương tự như vậy, những chiếc xe không người lái thường xác định chính xác những gì họ “nhìn thấy”, nhưng đôi khi họ dường như bỏ qua điều hiển nhiên, như trường hợp của Tesla, thường xuyên đâm vào xe cứu hỏa hoặc xe cứu thương đang đậu trên chế độ lái tự động. Những điểm mù như thế này thậm chí có thể nguy hiểm hơn nếu chúng nằm trong hệ thống kiểm soát lưới điện hoặc chịu trách nhiệm theo dõi sức khỏe cộng đồng.

Để thu hẹp khoảng cách giữa tham vọng và thực tế của trí tuệ nhân tạo, chúng ta cần ba điều: nhận thức rõ ràng về các giá trị đang bị đe dọa trong trò chơi này, hiểu rõ lý do tại sao các hệ thống AI hiện đại không thực hiện các chức năng của chúng một cách đủ tin cậy và, cuối cùng là tư duy máy móc chiến lược phát triển mới.

Vì lợi nhuận của trí tuệ nhân tạo thực sự cao về mặt việc làm, sự an toàn và kết cấu của xã hội, nên tất cả chúng ta - các chuyên gia AI, các ngành nghề liên quan, công dân bình thường và chính trị gia - cần hiểu rõ thực trạng của vấn đề. trong lĩnh vực này để tìm hiểu đánh giá một cách nghiêm túc mức độ và bản chất của sự phát triển của trí tuệ nhân tạo ngày nay.

Cũng như đối với những công dân quan tâm đến tin tức và số liệu thống kê, điều quan trọng là phải hiểu được mức độ dễ dàng đánh lừa mọi người bằng các từ ngữ và con số, vì vậy, đây là một khía cạnh ngày càng quan trọng của sự hiểu biết để chúng ta có thể tìm ra đâu là trí thông minh nhân tạo chỉ là quảng cáo, nhưng nó có thật ở đâu; những gì anh ta có thể làm bây giờ, và những gì anh ta không biết làm thế nào và, có lẽ, sẽ không học được.

Điều quan trọng nhất là nhận ra rằng trí tuệ nhân tạo không phải là ma thuật, mà chỉ là một tập hợp các kỹ thuật và thuật toán, mỗi kỹ thuật và thuật toán đều có điểm mạnh và điểm yếu riêng, phù hợp với một số nhiệm vụ và không phù hợp với những nhiệm vụ khác. Một trong những lý do chính mà chúng tôi đặt ra để viết cuốn sách này là phần lớn những gì chúng tôi đọc được về trí tuệ nhân tạo đối với chúng tôi dường như là một điều viển vông tuyệt đối, xuất phát từ niềm tin vô căn cứ vào sức mạnh gần như kỳ diệu của trí tuệ nhân tạo.

Trong khi đó, điều viễn tưởng này không liên quan gì đến khả năng công nghệ hiện đại. Thật không may, cuộc thảo luận về AI giữa công chúng đã và đang bị ảnh hưởng nặng nề bởi sự suy đoán và phóng đại: hầu hết mọi người đều không biết việc tạo ra trí thông minh nhân tạo phổ quát khó khăn như thế nào.

Chúng ta hãy làm rõ thảo luận thêm. Mặc dù việc làm rõ những thực tế liên quan đến AI sẽ đòi hỏi sự chỉ trích nghiêm túc từ chúng tôi, nhưng bản thân chúng tôi không có nghĩa là đối thủ của trí tuệ nhân tạo, chúng tôi thực sự thích mặt này của tiến bộ công nghệ. Chúng tôi đã sống một phần quan trọng của cuộc đời mình với tư cách là những chuyên gia trong lĩnh vực này và chúng tôi muốn nó phát triển nhanh nhất có thể.

Nhà triết học người Mỹ Hubert Dreyfus đã từng viết một cuốn sách về những đỉnh cao mà theo quan điểm của ông, trí tuệ nhân tạo không bao giờ có thể đạt tới. Đây không phải là những gì cuốn sách này nói về. Nó tập trung một phần vào những gì AI hiện không thể làm và tại sao điều quan trọng là phải hiểu nó, nhưng một phần quan trọng trong đó nói về những gì có thể được thực hiện để cải thiện tư duy máy tính và mở rộng nó đến những lĩnh vực mà hiện nay nó gặp khó khăn trong việc thực hiện trước các bước.

Chúng tôi không muốn trí tuệ nhân tạo biến mất; hơn nữa, chúng tôi muốn nó cải thiện một cách triệt để, để chúng ta thực sự có thể tin tưởng vào nó và giải quyết với sự giúp đỡ của nó với nhiều vấn đề của nhân loại. Chúng tôi có rất nhiều lời chỉ trích về tình trạng trí tuệ nhân tạo hiện nay, nhưng những lời chỉ trích của chúng tôi là biểu hiện của tình yêu đối với ngành khoa học chúng tôi làm, không phải là lời kêu gọi từ bỏ và từ bỏ mọi thứ.

Nói tóm lại, chúng tôi tin rằng trí tuệ nhân tạo thực sự có thể biến đổi thế giới của chúng ta một cách nghiêm túc; nhưng chúng tôi cũng tin rằng nhiều giả định cơ bản về AI phải thay đổi trước khi chúng ta có thể nói về tiến bộ thực sự. Việc "đặt lại" trí tuệ nhân tạo được đề xuất của chúng tôi hoàn toàn không phải là lý do để chấm dứt nghiên cứu (mặc dù một số người có thể hiểu cuốn sách của chúng tôi theo đúng tinh thần này), mà là một chẩn đoán: chúng ta đang mắc kẹt ở đâu và làm cách nào để thoát khỏi tình hình ngày nay.

Chúng tôi tin rằng cách tốt nhất để tiến lên có thể là hướng nội, đối mặt với cấu trúc của tâm trí chúng ta.

Máy móc thực sự thông minh không nhất thiết phải là bản sao chính xác của con người, nhưng bất cứ ai nhìn vào trí thông minh nhân tạo một cách trung thực sẽ thấy rằng vẫn còn rất nhiều điều để học hỏi từ con người, đặc biệt là từ trẻ nhỏ, những thứ vượt trội hơn nhiều so với máy móc về nhiều mặt. khả năng tiếp thu và hiểu các khái niệm mới của họ.

Các nhà khoa học y học thường mô tả máy tính là hệ thống “siêu phàm” (theo cách này hay cách khác), nhưng bộ não con người vẫn vượt trội hơn rất nhiều so với các đối tác silicon của nó ở ít nhất năm khía cạnh: chúng ta có thể hiểu ngôn ngữ, chúng ta có thể hiểu thế giới, chúng ta có thể linh hoạt thích ứng với hoàn cảnh mới, chúng ta có thể nhanh chóng học hỏi những điều mới (ngay cả khi không có lượng lớn dữ liệu) và có thể lập luận khi đối mặt với thông tin không đầy đủ và thậm chí trái ngược nhau. Trên tất cả các mặt trận này, các hệ thống trí tuệ nhân tạo hiện đại đang đi sau con người một cách vô vọng.

Khởi động lại trí tuệ nhân tạo
Khởi động lại trí tuệ nhân tạo

Trí tuệ nhân tạo: Khởi động lại sẽ quan tâm đến những người muốn hiểu các công nghệ hiện đại và hiểu cách thức và thời điểm một thế hệ AI mới có thể làm cho cuộc sống của chúng ta tốt hơn.

Đề xuất: