Tin tức Trách nhiệm pháp lý của trí tuệ nhân tạo – Kiến nghị...

Trách nhiệm pháp lý của trí tuệ nhân tạo – Kiến nghị về cách tiếp cận của Pháp luật Việt Nam

445

Tóm tắt: Thế kỷ 21 đang chứng kiến sự phát triển đột phá của công nghệ trí tuệ nhân tạo. Những sản phẩm ứng dụng trí tuệ nhân tạo đã hiện diện ngày càng phổ biến trong đời sống xã hội, góp phần nâng cao chất lượng cuộc sống. Nhưng việc sử dụng trí tuệ nhân tạo cũng ẩn chứa những rủi ro đối với tài sản và tính mạng con người. Trong khi đó, khung pháp luật điều chỉnh vấn đề trách nhiệm pháp lý trong trường hợp trí tuệ nhân tạo gây thiệt hại hiện đang tồn tại nhiều khoảng trống đòi hỏi cần được nghiên cứu và hoàn thiện. Bài viết này phân tích quan điểm lý luận của một số tác giả và chính sách pháp luật của Liên minh châu Âu về vấn đề trách nhiệm pháp lý của các thực thể trí tuệ nhân tạo, từ đó kiến nghị về cách tiếp cận của pháp luật Việt Nam trong lĩnh vực này.

1. Đặt vấn đề

Trí tuệ nhân tạo (Artificial Intelligence – A.I.) là một lĩnh vực của khoa học máy tính, là cơ sở để thiết kế, mô phỏng quá trình suy nghĩ, học tập của con người cho máy móc, nhằm làm cho máy móc có được những khả năng và trí thông minh của con người, như biết suy nghĩ và biết suy luận để giải quyết vấn đề, biết giao tiếp do hiểu ngôn ngữ và tiếng nói, biết tự học, tự thích nghi và tự hoàn thiện. Trí tuệ nhân tạo giúp các loại máy móc, mô hình mô phỏng có thể tự động hóa ở mức cao, có thể tự ra quyết định không cần sự kiểm soát của con người, có thể thực hiện và nhận diện các hành vi tương tự con người.

Nếu như trong thập niên năm mươi của Thế kỷ XX, trí tuệ nhân tạo – với sự hiện diện điển hình của nó dưới hình hài một con robot – chỉ ứng dụng trong lĩnh vực quân sự và sản xuất công nghiệp, thì ngày nay trí tuệ nhân tạo đang rời khỏi nhà máy và chiến trường để trực tiếp tham gia vào đời sống bình thường của con người: trí tuệ nhân tạo xuất hiện trong luồng giao thông công cộng với các loại xe tự hành, hiện diện trên bầu trời với máy bay không người lái, tại văn phòng làm việc với các loại robot làm thư ký, trong không gian mỗi gia đình với robot giúp việc, có mặt trong phòng mổ với robot phẫu thuật, robot chăm sóc người bệnh cách ly trong dịch bệnh COVID-19 v.v… Con người trong Thế kỷ XXI đã thực sự sống chung cùng robot. Cũng chính trong thập niên hai mươi của Thế kỷ XXI này, công nghệ trí tuệ nhân tạo nói chung, robot thông minh nói riêng đã có những phát triển đột phá, có trí thông minh ngày càng tiệm cận đến trí thông minh của con người.

Nguồn ảnh: Google

Công nghệ trí tuệ nhân tạo đã giúp cuộc sống của con người chất lượng hơn, nhưng những vụ tai nạn do ô tô tự hành, hoặc những vụ chết người do lỗi của robot trong quá trình vận hành nhắc nhở chúng ta rằng công nghệ không phải là hoàn hảo. Năm 1981 một công nhân đã bị robot giết tại nhà máy mô tô Kenji Urada – Nhật Bản do robot hiểu lầm anh công nhân này là mối nguy hiểm. Năm 2015, một kỹ sư 22 tuổi làm việc tại nhà máy của Volkswagen tại Đức đã bị giết bởi một robot trong lúc người đó đang hoàn thiện thêm các chi tiết của robot này; con robot nhấc bổng người kỹ sư lên, ném mạnh vào các tấm kim loại và người kỹ sư đã chết do bị chấn thương rất nặng. Cũng trong năm 2015, một người thợ tên là Ramji Lal bị giết trong nhà máy Haryana Manesar ở Ấn Độ khi anh ta đến gần robot từ phía sau; người thợ này đang điều chỉnh một tấm kim loại mà robot sẽ mang đi và bị đâm xuyên bởi các que hàn gắn trên tay robot. Tháng 2/2015, một phụ nữ Hàn Quốc đang nằm ngủ trên sàn nhà thì bị robot hút bụi “ăn tóc” khiến bà phải gọi cứu thương. Ngày 18/3/2018 xảy ra vụ tai nạn chết người đầu tiên do xe tự lái gây ra; nạn nhân là bà Elaine Herzberg, 49 tuổi, bị một chiếc xe tự lái của Uber đâm phải khi đang qua đường. Tháng 4/2021, một vụ tai nạn khiến 2 người thiệt mạng khi đang lái xe tự lái Model S của Tesla.

Ở Việt Nam, từ năm 2014, trí tuệ nhân tạo đã được đưa vào danh mục công nghệ cao ưu tiên đầu tư phát triển. Chính phủ xác định đây là một trong những công nghệ đột phá, mũi nhọn của cuộc CMCN 4.0. Đầu năm 2021, Thủ tướng Chính phủ đã ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030. Một số doanh nghiệp và tập đoàn đã nhanh chóng cập nhật xu hướng trí tuệ nhân tạo của thế giới và bước đầu có sản phẩm cụ thể và áp dụng vào quá trình sản xuất, kinh doanh cũng như ở một số ngành, lĩnh vực như: tài chính ngân hàng, thông tin truyền thông, y tế, giáo dục, du lịch, giao thông, thương mại điện tử, chatbot bán hàng v.v…Việt Nam có những nền tảng quan trọng cho việc nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo trong tương lai. Tính đến năm 2021, Việt Nam đã phát triển công nghệ trí tuệ nhân tạo mạnh mẽ, tăng 14 bậc so với năm 2020, trở thành quốc gia đứng thứ 62 toàn cầu và đứng thứ 6 trong các nước ASEAN về chỉ số sẵn sàng cho trí tuệ nhân tạo.

Mặc dù tại Việt Nam, công nghệ liên quan đến trí tuệ nhân tạo mới chỉ dừng ở mức nghiên cứu, phát triển trong một số lĩnh vực; nhưng trước xu hướng của thế giới, các mẫu xe tự hành hiện đại của nước ngoài hoàn toàn có thể được mua về và sử dụng trên đường phố Việt Nam trong tương lai; các robot thông minh hoàn toàn có thể được nhập khẩu để phục vụ trong lĩnh vực y tế, giao thông vận tải; các sản phẩm tích hợp trí tuệ nhân tạo có thể được chính các doanh nghiệp của Việt Nam ứng dụng, phát triển để phục vụ hoạt động sản xuất kinh doanh v.v… Trong khi đó, khung pháp luật của Việt Nam điều chỉnh trong lĩnh vực trí tuệ nhân tạo nói chung, trách nhiệm pháp lý trong trường hợp xảy ra thiệt hại liên quan đến trí tuệ nhân tạo nói riêng hiện nay gần như là một khoảng trống. Vì vậy, việc nghiên cứu, nhận diện về phạm vi trách nhiệm pháp lý của các chủ thể trong các hoạt động có ứng dụng trí tuệ nhân tạo, chuẩn bị các chế tài, quy định liên quan tới lĩnh vực trí tuệ nhân tạo là điều không chỉ cần thiết mà còn trở thành vấn đề cấp thiết.

2. Một số quan điểm lý luận về trách nhiệm pháp lý của trí tuệ nhân tạo

Để xem xét về trách nhiệm pháp lý của thực thể trí tuệ nhân tạo, cần nhận diện địa vị pháp lý của nó khi tham gia quan hệ pháp luật; theo đó, cần xác định liệu thực thể trí tuệ nhân tạo có thể là chủ thể của quan hệ pháp luật hay không, hay chỉ coi nó là một trong những đối tượng của quan hệ pháp luật. Có nhiều quan điểm khác nhau về vấn đề này.

Nguồn ảnh: Google

2.1. Thực thể trí tuệ nhân tạo là một loại tài sản

Xã hội có thể coi trí tuệ nhân tạo như một loại tài sản: tài sản dưới dạng đồ vật hoặc động vật; tài sản cũng có thể là nô lệ trong xã hội chiếm hữu nô lệ.

Nếu trí tuệ nhân tạo được coi như một loại đồ vật, chế độ pháp lý khi trí tuệ nhân tạo gây thiệt hại thuộc về người chủ sở hữu hoặc người sử dụng theo lý thuyết về  trách nhiệm sản phẩm. Nếu trí tuệ nhân tạo được coi như một động vật, trách nhiệm pháp lý vẫn thuộc về người sở hữu hoặc quản lý trí tuệ nhân tạo vào thời điểm khi nó gây thiệt hại. Nếu trí tuệ nhân tạo được coi như một nô lệ, trách nhiệm pháp lý cũng vẫn thuộc về người chủ sở hữu nô lệ, do thực tế là nô lệ không có quyền, nghĩa vụ riêng của mình.

Tuy nhiên, các cách tiếp cận này đều có những hạn chế của nó.

Coi trí tuệ nhân tạo như một đồ vật thông thường là chưa thấy rõ sự khác biệt của trí tuệ nhân tạo với trí thông minh đặc biệt của nó và vì vậy việc quy trách nhiệm pháp lý cho người chủ sở hữu, người sử dụng, người quản lý như đối với sản phẩm thông thường là không đủ sức thuyết phục. Một trong những khả năng vượt trội của trí tuệ nhân tạo đó là khả năng học máy (machine learning). Với khả năng này, trí tuệ nhân tạo được nạp dữ liệu, các luật suy diễn và tự huấn luyện cho mình, tự hoàn thiện, dần dần có thể tự đưa ra quyết định mà nó cho là tốt nhất không cần sự can thiệp trực tiếp của con người. Vì quá trình “ra quyết định” diễn ra hoàn toàn trong bộ nhớ của trí tuệ nhân tạo nên cả người lập trình lẫn người sử dụng khó có thể biết chắc chắn ai hoặc cái gì chịu trách nhiệm về quyết định gây ra thiệt hại đó. Chính vì vậy, các quyết định của trí tuệ nhân tạo được cho là không minh bạch, không rõ ràng, không thể đoán trước và không thể giải thích được. Do thiếu sự kiểm soát của con người trong quá trình ra quyết định, nên khó có thể thiết lập mối quan hệ nhân quả giữa hành vi và thiệt hại xảy ra; vì vậy khó có thể quy trách nhiệm pháp lý cho một chủ thể nào đó trong rất nhiều chủ thể có liên quan. Ví dụ, để được yêu cầu bồi thường theo nguyên tắc về trách nhiệm sản phẩm, bên bị thiệt hại phải chứng minh được sản phẩm có lỗi sản xuất, lỗi thiết kế, hoặc lỗi trong việc không cung cấp, cảnh báo đầy đủ thông tin về sản phẩm. Nhưng trên thực tế, hầu hết các thiệt hại do trí tuệ nhân tạo gây ra khó có thể chứng minh là kết quả trực tiếp của một vấn đề sản xuất cụ thể.

Machine Learning – Nguồn ảnh: Google

Coi trí tuệ nhân tạo như một động vật: theo quy định pháp luật, nếu động vật gây thiệt hại, chủ sở hữu sẽ là người chịu trách nhiệm pháp lý. Sự giống nhau giữa động vật và các thực thể trí tuệ nhân tạo đó là cả hai đều là những đối tượng do con người “thuần hóa” và cả hai đều có những hành xử thất thường, khó đoán. Những thực thể trí tuệ nhân tạo đều được lập trình bởi con người, được “huấn luyện” để thực hiện những nhiệm vụ nhất định. Chính vì được huấn luyện (qua học máy), trí tuệ nhân tạo đã tự hoàn thiện và có khả năng ra quyết định không cần đến sự can thiệp của con người. Ở khía cạnh này, trí tuệ nhân tạo giống như động vật, vì sau quá trình huấn luyện, động vật được “thuần chủng”, có khả năng phân tích, phán đoán, ra quyết định. Về nguyên tắc, khi động vật gây thiệt hại, chủ sở hữu hoặc người quản lý động vật là chủ thể chịu trách nhiệm pháp lý. Nhưng quá trình ra quyết định của trí tuệ nhân tạo diễn ra hoàn toàn trong “hộp đen” của nó mà con người không thể biết được khi nào nó đã được “thuần hóa” hay vẫn còn hoang dã để có cách quản lý, giám sát phù hợp. Đây là khía cạnh trí tuệ nhân tạo khác với động vật. Vì vậy, việc coi trí tuệ nhân tạo như động vật để từ đó quy trách nhiệm cho chủ sở hữu, người quản lý, người lập trình, nhà sản xuất v.v… chưa thực sự thuyết phục, do khó có thể chứng minh được mối quan hệ pháp lý liên quan.

Coi trí tuệ nhân tạo như nô lệ: một số học giả mà đại diện là Joanna Bryson đưa ra quan điểm so sánh trí tuệ nhân tạo với nô lệ, với lý lẽ rằng các thực thể trí tuệ nhân tạo không thể được coi như một sản phẩm, cũng không thể coi như một động vật vì trí tuệ nhân tạo thông minh hơn hai đối tượng trên và “giống con người” hơn ở một số khía cạnh. Tuy nhiên, cũng không thể coi trí tuệ nhân tạo như một con người thực thụ có tự do và tự chủ. Vị trí của nô lệ trong các xã hội trước đây cao hơn động vật và đồ vật, nhưng thấp hơn hẳn con người tự do. Và địa vị của trí tuệ nhân tạo cũng tương tự như vậy. Giống như nô lệ, trí tuệ nhân tạo có khả năng đưa ra các quyết định ảnh hưởng đến các quyền và có thể kéo theo các trách nhiệm cho chủ nhân của nó. Trong bài báo của mình, Bryson kêu gọi việc áp dụng nguyên tắc tương tự về mặt pháp lý để nhìn nhận các thực thể trí tuệ nhân tạo như là các nô lệ. Tác giả tuyên bố rằng “robot nên được chế tạo, tiếp thị và được coi là hợp pháp như nô lệ, không phải là những người bạn đồng hành”.

2.2. Thực thể trí tuệ nhân tạo giống như một con người có năng lực hành vi hạn chế

Các thực thể trí tuệ nhân tạo có thể được coi như con người không hoàn thiện hoặc chưa hoàn thiện: một đứa trẻ, một bào thai chưa chào đời, những người bị tổn thương não nghiêm trọng hoặc bị hôn mê. Những đối tượng này không được hưởng quyền nhân thân đầy đủ và có địa vị pháp lý hạn chế. Trẻ em, người bị tổn thương não và các thực thể trí tuệ nhân tạo chỉ có thể giao tiếp và kiểm soát hành động của mình trong một mức độ nhất định. Khi một đứa trẻ tự mình gây ra thiệt hại, trách nhiệm pháp lý thuộc về cha mẹ hoặc người giám hộ. Giống như một đứa trẻ, khi thực thể trí tuệ nhân tạo gây thiệt hại, trách nhiệm pháp lý thuộc về chủ sở hữu, nhà điều hành, nhà thiết kế, nhà đào tạo, người quản lý, người sử dụng hoặc lập trình viên.

Tuy nhiên lập luận này là không hợp lý, vì cơ sở đằng sau việc trừng phạt cha mẹ do cẩu thả không giám sát trẻ em hoàn toàn khác với việc xử phạt những người liên quan trong bối cảnh trí tuệ nhân tạo. Hơn nữa, trong nhiều chủ thể liên quan nêu trên, đâu là tiêu chí để xác định chủ thể nào nên được xem là người giám sát thích hợp của trí tuệ nhân tạo (giống vai trò của cha mẹ, người giám hộ của trẻ em) trong bối cảnh trí tuệ nhân tạo thực hiện các tác vụ của mình.

Nguồn ảnh: Google

2.3. Thực thể trí tuệ nhân tạo là một “điện tử nhân” (con người điện tử)

Quan điểm này cho rằng nên đối xử với thực thể trí tuệ nhân tạo như một “con người điện tử” với các quyền và nghĩa vụ như những người trưởng thành. Quan điểm này cho rằng thực thể trí tuệ nhân tạo là một thực thể hợp pháp, tách biệt với chủ sở hữu, người sáng tạo, người quản lý và phải tự chịu trách nhiệm về hành vi của mình.

Khi trí tuệ nhân tạo gây thiệt hại, tư cách “con người điện tử” cho phép xử phạt chính thực thể trí tuệ nhân tạo. Một trong những người tích cực bảo vệ quan điểm này là tác giả người Nga П. М. Морхат.

Mặc dù cách tiếp cận này bị nhiều chuyên gia, nhà khoa học, nhà quản lý phản đối, nhưng điều đáng chú ý là cách tiếp cận này đã từng được Nghị viện châu Âu (Parliament Europeen) đề xuất từ năm 2016 như sau: “về lâu dài, cần tạo tình trạng pháp lý cụ thể cho robot, để ít nhất những robot tự động tinh vi nhất có thể được thiết lập tư cách của những “người điện tử” chịu trách nhiệm đối với bất kỳ thiệt hại nào mà chúng gây ra và có thể áp dụng năng lực pháp lý điện tử cho các trường hợp robot có khả năng đưa ra các quyết định tự chủ hoặc tương tác một cách độc lập với các bên thứ ba”.

2.4. Thực thể trí tuệ nhân tạo giống như một pháp nhân

Những người theo quan điểm này coi các thực thể trí tuệ nhân tạo như những “nhân viên”, những “người phục vụ” và phải thực thi các nhiệm vụ do các chủ sở hữu, người vận hành, nhà thiết kế, lập trình viên giao cho. Trách nhiệm pháp lý dành cho các “nhân viên” A.I. này tương tự như trách nhiệm pháp lý dành cho pháp nhân.

Việc coi pháp nhân là chủ thể độc lập của quan hệ pháp luật dân sự, kinh tế, thương mại là cách tiếp cận đã có lịch sử lâu đời. Về mặt hình sự thì Vương quốc Anh là quốc gia đầu tiên trên thế giới đã áp dụng trách nhiệm hình sự đối với pháp nhân. Với sự phát triển của khoa học pháp lý, ngày nay quan điểm về việc pháp nhân thương mại cũng có thể là chủ thể chịu trách nhiệm hình sự và hình phạt đã trở nên phổ biến trong pháp luật của nhiều quốc gia. Từ cách tiếp cận coi pháp nhân thương mại là một thực thể pháp lý độc lập, luật pháp hình sự nhiều quốc gia (trong đó có Việt Nam, từ BLHS 2015) đã công nhận pháp nhân thương mại cũng phải chịu trách nhiệm hình sự.

Một trong những lập luận quan trọng bảo vệ cho quan điểm coi bản thân thực thể trí tuệ nhân tạo cũng phải chịu trách nhiệm hình sự được đưa ra bởi Gabriel Hallevy. Trong các tác phẩm của mình mà nổi tiếng nhất là bài báo “The Criminal Liability of Artificial Intelligence Entities: From Science Fiction to Legal Social Control” và cuốn sách “When Robots Kill: Artificial Intelligence under Criminal Law”, tác giả đã đưa ra quan điểm của mình như sau:

Nếu tất cả các yếu tố cụ thể [khách quan và chủ quan của hành vi phạm tội] được đáp ứng, thì trách nhiệm hình sự có thể được áp dụng đối với bất kỳ thực thể nào – con người, công ty, hoặc thực thể A.I… Sự phát triển nhanh chóng của công nghệ trí tuệ nhân tạo đòi hỏi phải áp dụng những giải pháp pháp lý hiện hành, đặc biệt là luật hình sự để bảo vệ xã hội khỏi những nguy hiểm có thể xảy ra trong các công nghệ mà luật pháp chưa điều chỉnh được. Các mối đe dọa đối với trật tự xã hội đó có thể do con người, các pháp nhân hoặc thực thể A.I. gây ra. Theo truyền thống, chỉ con người là đối tượng của luật hình sự… Mặc dù các pháp nhân, các công ty đã tồn tại từ Thế kỷ 14 nhưng các pháp nhân, công ty phải mất hàng trăm năm để chịu sự điều chỉnh của pháp luật, đặc biệt là luật hình sự. Trong hàng trăm năm trước đó, luật quy định rằng các pháp nhân không phải là đối tượng của luật hình sự. Chỉ vào năm 1635 một tòa án ở Anh mới bắt đầu áp dụng trách nhiệm hình sự cho một công ty … Các pháp nhân không có thể xác và linh hồn. Nhưng với các giải pháp pháp lý đã được phát triển trong lĩnh vực trách nhiệm hình sự, các công ty đã được xem xét việc đáp ứng các yếu tố cả về mặt khách quan và chủ quan của trách nhiệm hình sự. Các mô hình điều chỉnh trách nhiệm hình sự đối với các pháp nhân, công ty đã vận hành trên thực tế và đã rất thành công. Vậy tại sao các thực thể A.I. phải khác với công ty, tập đoàn đó. Các thực thể A.I. đang ngày càng chiếm phần lớn hơn trong các hoạt động của con người. Các hành vi phạm tội đã được thực hiện bởi chính các thực thể A.I. hoặc thông qua hoạt động của thực thể A.I. Do đó, không có sự khác biệt nào về mặt pháp lý giữa ý tưởng về trách nhiệm hình sự đối với các pháp nhân, các công ty và đối với các thực thể A.I.

Với cách tiếp cận của mình, G. Hallevy đã đưa ra một số mô hình dự kiến có thể áp dụng về trách nhiệm hình sự đối với chính bản thân thực thể trí tuệ nhân tạo.

Cách tiếp cận của G. Hallevy dựa trên nguyên tắc cơ bản của trách nhiệm hình sự, đó là hành vi phạm tội phải thể hiện cả về mặt khách quan (actus reus) và chủ quan (mens rea). Mặt khách quan thể hiện ở chỗ chủ thể đó thực hiện hành động bị pháp luật cấm (hoặc không hành động như yêu cầu của pháp luật). Mặt chủ quan thể hiện ở chỗ hành vi phạm tội được thực hiện một cách có chủ ý, hoặc do sơ suất hay ngẫu nhiên. Do đó, trách nhiệm hình sự bắt nguồn từ “sự lựa chọn chân chính của một người có lý trí”. Điều này có nghĩa là nếu một người hành động do bị đe dọa, cưỡng bức, hoặc người đó mắc bệnh rối loạn tâm thần, thì họ không thể bị tuyên bố phải chịu trách nhiệm hình sự.

Vận dụng nguyên tắc nêu trên vào việc phân tích hành vi của trí tuệ nhân tạo, các nhà nghiên cứu chia ra các tình huống:

Khi hành vi phạm tội được thực hiện một cách tự nguyện: đó phải là hành vi vi phạm pháp luật và được người phạm tội thực hiện một cách tự nguyện, có ý thức, chứ “hành vi đó không phải là kết quả của một tai nạn hay một cơn co thắt cơ bắp”. Trong trường hợp của trí tuệ nhân tạo, nếu người phạm tội tự nguyện sử dụng trí tuệ nhân tạo để phạm tội, thì người đó phải chịu trách nhiệm hình sự. Trong tình huống này, trí tuệ nhân tạo được sử dụng như một công cụ phạm tội.

Nhưng điều gì sẽ xảy ra khi chính thực thể trí tuệ nhân tạo, với năng lực tự chủ của mình (qua quá trình tự học, tự hoàn thiện), thực hiện hành vi phạm tội mà không cần sự can thiệp trực tiếp của con người? Trong trường hợp này, các nhà nghiên cứu lại chia ra một số tình huống như sau:

          Trách nhiệm của người sử dụng trí tuệ nhân tạo: nếu người lái xe tự hành, do sơ suất không thực hiện các nghĩa vụ cần làm (ví dụ, không giám sát sự vận hành của trí tuệ nhân tạo mọi lúc mọi nơi), thì họ phải chịu trách nhiệm hình sự.

          Trách nhiệm của người tạo ra trí tuệ nhân tạo: nếu lập trình viên cố tình tạo ra một thực thể trí tuệ nhân tạo để thực hiện hành vi phạm tội, lập trình viên phải chịu trách nhiệm hình sự. Ngay cả trong trường hợp do sơ suất dẫn đến việc trí tuệ nhân tạo gây thiệt hại – mà lẽ ra phải thấy trước và có thể thấy trước – thì lập trình viên vẫn phải chịu trách nhiệm pháp lý.

          Trách nhiệm của chính thực thể trí tuệ nhân tạo: theo Hallevy, nếu thực thể trí tuệ nhân tạo đủ tiên tiến để có thể đáp ứng cả tiêu chí về chủ quan và khách quan, thì không có lý do gì để nó không phải chịu trách nhiệm hình sự về các hành vi của mình. Quan điểm này bị chỉ trích mạnh mẽ bởi một số tác giả với lý do rằng trong thực tế hiện nay, công nghệ robot chưa đủ tiên tiến để áp dụng lý thuyết của Hallevy. Hallevy cũng cho rằng, việc phân bổ trách nhiệm hình sự cho thực thể trí tuệ nhân tạo không loại trừ trách nhiệm của các chủ thể khác có liên quan như lập trình viên, người dùng, chủ sở hữu thực thể trí tuệ nhân tạo v.v…

Nói cách khác, trách nhiệm hình sự của một thực thể trí tuệ nhân tạo không thay thế trách nhiệm hình sự của người lập trình hay người dùng. Trách nhiệm hình sự không được phân chia mà là tổng hợp. Trách nhiệm hình sự của thực thể trí tuệ nhân tạo được đặt ra bên cạnh trách nhiệm hình sự của lập trình viên hoặc người dùng.

3. Cách tiếp cận của Liên minh Châu Âu về trách nhiệm pháp lý của trí tuệ nhân tạo

3.1. Quan điểm của Liên minh châu Âu

Liên minh châu Âu là một trong những thiết chế khu vực sớm có sự quan tâm và có cách tiếp cận đáng chú ý trong việc xây dựng khung pháp lý cho các thực thể trí tuệ nhân tạo. Liên quan đến vấn đề trách nhiệm pháp lý của các thực thể trí tuệ nhân tạo, ba văn bản sau đây có ý nghĩa quan trọng nhất, đó là: Nghị quyết ngày 16/02/2017 của Nghị viện châu Âu về quy tắc Luật Dân sự về robot, và hai dự thảo Chỉ thị ngày 28/9/2022 về Trách nhiệm pháp lý đối với sản phẩm bị lỗi và về Trách nhiệm dân sự ngoài hợp đồng đối với Trí tuệ nhân tạo.

3.1.1. Cách tiếp cận của Nghị quyết ngày 16/2/2017 của Nghị viện châu Âu

Ngày 16/2/2017, Nghị viện châu Âu đã thông qua Nghị quyết với các khuyến nghị đối với Ủy ban về Quy tắc Luật Dân sự về robot. Nội dung của Nghị quyết này xác định các loại hình sử dụng trí tuệ nhân tạo, các vấn đề về trách nhiệm pháp lý, đạo đức và các quy tắc ứng xử cơ bản cho các nhà phát triển, nhà điều hành và nhà sản xuất trong lĩnh vực robot, các quy tắc dựa trên ba Quy tắc về công nghệ robot của Asimov. Trong tương lai gần, Nghị quyết lưu ý rằng, “ít nhất ở giai đoạn hiện tại, trách nhiệm phải thuộc về con người chứ không phải robot”; theo đó, khi xung đột pháp lý phát sinh, robot không thể chịu trách nhiệm về các hành động hoặc không hành động mà trách nhiệm sẽ thuộc về người dùng, nhà lập trình hoặc nhà sản xuất. Nhưng Nghị quyết cũng đưa ra các đề xuất cho tương lai “tạo một tình trạng pháp lý cụ thể cho robot về lâu dài, để ít nhất robot tự động tinh vi nhất có thể được thiết lập như có tư cách của những “con người điện tử” chịu trách nhiệm giải quyết mọi thiệt hại mà chúng có thể gây ra và có thể áp dụng “tư cách pháp lý điện tử” (electronic personality) cho các trường hợp robot có năng lực đưa ra quyết định tự chủ hoặc có khả năng tương tác với các bên thứ ba một cách độc lập”.

Về trách nhiệm pháp lý nói chung của robot, Nghị quyết này đưa ra quan điểm: nên lựa chọn giữa chế độ “trách nhiệm pháp lý nghiêm ngặt” (chỉ yêu cầu bằng chứng về thiệt hại và mối liên hệ nhân quả với hoạt động có hại của robot – đây là chế độ pháp lý dựa trên học thuyết về trách nhiệm pháp lý nghiêm ngặt, một nguyên tắc nền tảng trong chế định trách nhiệm sản phẩm, nhằm bảo vệ tối đa quyền lợi người tiêu dùng, theo đó, “nhà sản xuất, nhà phân phối, nhà bán lẻ phải chịu trách nhiệm bồi thường thiệt hại ngay cả khi nhà sản xuất không có lỗi trong việc gây ra thiệt hại, miễn là sản phẩm của những người cung ứng này có khuyết tật”) và chế độ “quản lý rủi ro” (trong đó trọng tâm là người có khả năng, trong một số trường hợp nhất định, giảm thiểu rủi ro và quản lý các tác động tiêu cực). Nghị quyết cũng đề nghị Ủy ban châu Âu xem xét việc thiết lập một chương trình bảo hiểm robot bắt buộc và một quỹ bồi thường bắt buộc, áp đặt cho chủ sở hữu và nhà sản xuất.

3.1.2. Cách tiếp cận của dự thảo Chỉ thị về trách nhiệm pháp lý đối với sản phẩm bị lỗi ngày 28/9/2022 của Ủy ban châu Âu

Dự thảo Chỉ thị về trách nhiệm pháp lý đối với các sản phẩm bị lỗi (PLD) sẽ thay thế Chỉ thị hiện hành về trách nhiệm pháp lý đối với sản phẩm (Chỉ thị 85/374/EEC), đưa ra khung pháp lý Châu Âu về trách nhiệm pháp lý nghiêm ngặt bằng cách bồi thường cho những cá nhân bị thương tích hoặc thiệt hại về tài sản do các sản phẩm bị lỗi. Theo Chỉ thị hiện hành 85/374/EEC, bất kỳ cá nhân nào bị thiệt hại về vật chất do sản phẩm bị lỗi, dù là do sơ suất hay lỗi cố ý, đều có quyền được nhà sản xuất bồi thường bằng cách chứng minh sản phẩm bị lỗi. Nhưng kể từ khi Chỉ thị 85/374/EEC được thông qua vào năm 1985, xã hội đã có những thay đổi quan trọng cả về sản phẩm cũng như phương thức bán, cung cấp sản phẩm khiến những quy định hiện hành của Chỉ thị 85/374/EEC xuất hiện những khoảng trống pháp lý. Thứ nhất, không rõ khung pháp luật hiện hành sẽ áp dụng như thế nào đối với các sản phẩm công nghệ mới như thiết bị thông minh và xe tự hành. Thứ hai, nghĩa vụ chứng minh hiện đang là một trở ngại đối với những người bị thiệt hại trong các trường hợp liên quan đến sản phẩm được trang bị công nghệ thông minh hoặc ứng dụng trí tuệ nhân tạo. Theo Chỉ thị hiện hành, người bị thiệt hại phải cung cấp bằng chứng về thiệt hại mà họ phải chịu, lỗi của sản phẩm và mối quan hệ nhân quả giữa hành vi gây thiệt hại và lỗi. Dự thảo Chỉ thị mới ngày 28/9/2022 sẽ khắc phục được bất cập này, giúp người tiêu dùng bị thiệt hại tăng cơ hội thành công đạt được yêu cầu bồi thường bằng cách giảm bớt nghĩa vụ chứng minh hoặc chia sẻ nghĩa vụ chứng minh với nhà sản xuất trong các trường hợp phức tạp không tìm ra được mối quan hệ nhân quả nói trên.

3.1.3. Cách tiếp cận của dự thảo Chỉ thị điều chỉnh các quy định về trách nhiệm dân sự ngoài hợp đồng đối với Trí tuệ nhân tạo ngày 28/9/2022 của Ủy ban châu Âu

Dự thảo Chỉ thị này đưa ra các quy tắc liên quan đến trách nhiệm dân sự ngoài hợp đồng (không điều chỉnh vấn đề trách nhiệm hình sự), áp dụng cho các nhà cung cấp, nhà điều hành và người sử dụng hệ thống trí tuệ nhân tạo. Một trong những mục tiêu mà Dự thảo này hướng tới là giúp các nạn nhân bị thiệt hại do trí tuệ nhân tạo gây ra có thể yêu cầu khắc phục thiệt hại dễ dàng hơn. Điều 3 của Dự thảo quy định rằng trong trường hợp nguyên đơn khiếu nại về việc bị thiệt hại, các Tòa án của quốc gia thành viên được quyền yêu cầu các nhà cung cấp hoặc người sử dụng trí tuệ nhân tạo có rủi ro cao phải cung cấp thông tin về đặc điểm kỹ thuật của hệ thống mà họ đang cung cấp hoặc sử dụng. Điều khoản này nhằm mục đích chống lại hiệu ứng “hộp đen” và sự khó tiếp cận của các hệ thống trí tuệ nhân tạo khiến cho các yêu cầu bồi thường thiệt hại gặp nhiều trở ngại.

3.2. Đánh giá về cách tiếp cận của Liên minh châu Âu

Khi xây dựng khung pháp luật về trí tuệ nhân tạo nói chung, trách nhiệm pháp lý của trí tuệ nhân tạo nói riêng, phạm vi điều chỉnh của các văn bản của Liên minh châu Âu (văn bản đã ban hành hoặc dự thảo) là tương đối toàn diện, bao phủ các lĩnh vực của chế độ trách nhiệm pháp lý, cả về mặt dân sự, hành chính và hình sự. Về quan điểm, các văn bản của Liên minh châu Âu vừa thể hiện sự thận trọng phù hợp với các cấp độ phát triển của trí tuệ nhân tạo trong giai đoạn hiện nay nhưng cũng vừa thể hiện yếu tố tiến bộ và cởi mở, tích hợp được những tiến bộ khoa học công nghệ vào vấn đề hoạch định chính sách thể hiện ở những quan điểm chính sau đây:

  • Trong tương lai gần, trách nhiệm pháp lý khi trí tuệ nhân tạo gây thiệt hại là thuộc về con người (người sử dụng, nhà lập trình, nhà sản xuất, nhà điều hành v.v…) chứ không phải thuộc về bản thân thực thể trí tuệ nhân tạo.
  • Cơ sở lý luận để xây dựng chế định trách nhiệm pháp lý đối với trí tuệ nhân tạo, trong giai đoạn hiện nay, vẫn dựa trên chế độ trách nhiệm đối với sản phẩm; tuy nhiên việc chứng minh lỗi và quan hệ nhân quả đã được quy định trong các văn bản dự thảo theo hướng giảm nhẹ nghĩa vụ chứng minh cho người bị thiệt hại.
  • Khi xác định chủ thể phải chịu trách nhiệm về hành động của robot, quan điểm của Nghị viện châu Âu là mức độ trách nhiệm cần được xác định trên cơ sở mức độ tự chủ của robot và vai trò của người huấn luyện robot.
  • Đối với tình huống robot hành động không có sự kiểm soát của con người mà gây ra thiệt hại và nếu không thể chỉ ra được mối quan hệ nhân quả của hành vi của robot với lỗi của các cá nhân liên quan, thì giải pháp mà Nghị viện châu Âu đề xuất là sử dụng cơ chế bảo hiểm bắt buộc đối với nhà sản xuất và chủ sở hữu của robot, bằng cách buộc các đối tượng này phải đóng góp một khoản tiền để xây dựng quỹ bồi thường thiệt hại cho nạn nhân.
  • Về lâu dài cùng với sự phát triển ngày càng cao của trí tuệ nhân tạo, Nghị viện châu Âu đề xuất xem xét cấp cho robot tư cách pháp lý riêng biệt dưới danh nghĩa “người điện tử” đối với những robot tiên tiến có khả năng đưa ra các quyết định tự chủ.
  • Khi tiếp cận các vấn đề về robot và trí tuệ nhân tạo, không chỉ cần tính đến những tiến bộ cả về khoa học pháp lý mà còn cần xem xét vấn đề dưới khía cạnh đạo đức; vì vậy, cần xây dựng những nguyên tắc đạo đức cho các đối tượng liên quan đến trí tuệ nhân tạo từ người lập trình, nhà sản xuất, người sử dụng cho đến bản thân thực thể trí tuệ nhân tạo v.v…

Chúng tôi cho rằng, cách tiếp cận về trách nhiệm pháp lý đối với các đối tượng liên quan đến trí tuệ nhân tạo của Liên minh châu Âu trong bối cảnh hiện nay là hài hòa, hợp lý, vừa phù hợp với sự phát triển của khoa học công nghệ trong thời đại số; vừa thận trọng, bảo đảm bù đắp được thiệt hại của nạn nhân do trí tuệ nhân tạo gây ra; vừa không cản trở sự đầu tư của cách doanh nghiệp phát triển trí tuệ nhân tạo và vì vậy sẽ là nhân tố tích cực tạo động lực phát triển cho nền kinh tế số.

4. Kiến nghị về cách tiếp cận của pháp luật Việt Nam đối với trách nhiệm pháp lý của trí tuệ nhân tạo

Thứ nhất, khi xây dựng chế định trách nhiệm của các đối tượng liên quan đến trí tuệ nhân tạo, cần có một góc nhìn tổng thể và toàn diện về khung pháp lý liên quan đến lĩnh vực này. Điều chỉnh pháp luật liên quan đến trách nhiệm pháp lý của các đối tượng liên quan đến trí tuệ nhân tạo động chạm đến không chỉ các quy định pháp luật về hình sự, mà còn cả các quy định về dân sự và hành chính; vì vậy cần có góc nhìn tổng thể khi xây dựng khung pháp lý cho chế định này.

Thứ hai, cần có lộ trình khi xây dựng khung pháp luật về trách nhiệm pháp lý của trí tuệ nhân tạo. Trong lộ trình gần, trách nhiệm pháp lý chưa thể áp đặt cho thực thể trí tuệ nhân tạo một cách độc lập, vẫn là con người và pháp nhân là chủ thể chịu trách nhiệm khi trí tuệ nhân tạo gây thiệt hại; trong giai đoạn này cần lưu ý chế độ bảo hiểm bắt buộc đối với sản phẩm của chủ sở hữu và nhà sản xuất để bảo đảm quyền lợi cho người bị thiệt hại. Nhưng trong lộ trình xa, khi trí tuệ nhân tạo đạt đến trình độ tiên tiến, cần nghiên cứu và tìm ra giải pháp về trách nhiệm pháp lý độc lập của thực thể trí tuệ nhân tạo đối với những thiệt hại do chính trí tuệ nhân tạo gây ra.

Thứ ba, khi đối mặt với kỹ năng ra quyết định vượt trội của trí tuệ nhân tạo, ví dụ robot thông minh, cần nhìn nhận rằng, mối quan hệ giữa robot và người điều khiển, người sử dụng nó rất khác so với mối quan hệ truyền thống giữa người sử dụng với một máy móc hay công cụ thông thường. Sự khác nhau này thể hiện ở chỗ, với khả năng học máy, khi các kỹ năng của robot ngày một tăng lên, thì nhu cầu và mong muốn có sự can thiệp của người điều khiển, người sử dụng vào quá trình ra quyết định ngày càng giảm đi. Điều đó cũng có nghĩa là, khi “nhận thức” của robot trở nên thông minh hơn, mức độ tự chủ của robot tăng lên, sự can thiệp của con người ít đi, thì luật về trách nhiệm sản phẩm sẽ rất khó để quy trách nhiệm cho một bên cụ thể nào đó (nhà lập trình, người sử dụng, nhà sản xuất v.v…). Vì vậy, nếu chỉ coi trí tuệ nhân tạo (hay robot) như một đối tượng của pháp luật, thì sẽ có một khoảng trống pháp lý do ở chỗ trong một số trường hợp không thể tìm ra được mối liên hệ giữa hành vi gây thiệt hại và lỗi (cố ý hay vô ý) của các chủ thể có liên quan.

Với giải pháp pháp lý truyền thống như hiện nay, các đối tượng liên quan đến trí tuệ nhân tạo sẽ chỉ phải chịu trách nhiệm pháp lý nếu có lỗi hoặc có hành vi cẩu thả dẫn đến thiệt hại. Tuy nhiên, trong nhiều trường hợp, không tìm ra được mối quan hệ nhân quả giữa hành vi gây thiệt hại của thực thể trí tuệ nhân tạo với hành vi có lỗi của những đối tượng liên quan (lập trình viên, nhà sản xuất, chủ sở hữu, nhà đầu tư, người quản lý, người sử dụng v.v…); vì vậy, đã xảy ra một số tình huống trên thực tế là tai nạn do xe tự hành hoặc robot gây ra nhưng cơ quan có thẩm quyền đã kết luận là không ai phải chịu trách nhiệm. Ví dụ, vụ Jones kiện công ty W+ M Automation, Inc., ở bang New York năm 2007, Toà án đã không thể tìm thấy lý do buộc bị đơn phải chịu trách nhiệm khi hệ thống tải giàn robot làm một công nhân bị thương. Đó là bởi nhà sản xuất đã tuân thủ đầy đủ các quy định về vận hành. Những tai nạn trên xảy ra không do lỗi của con người nên theo quy định của pháp luật truyền thống hiện nay chỉ có thể kết luận rằng nhà phát triển trí tuệ nhân tạo vô tội.

Thứ tư, hệ thống pháp luật hiện hành của Việt Nam vẫn đang tiếp cận vấn đề chủ thể của quan hệ pháp luật theo cách truyền thống, theo đó chỉ có cá nhân (con người) và pháp nhân mới là chủ thể của quan hệ pháp luật. Cách tiếp cận này đã loại bỏ việc nhìn nhận trí tuệ nhân tạo với tiềm năng có thể trở thành một chủ thể đặc biệt hoặc chủ thể mới của quan hệ pháp luật trong tương lai, để từ đó nhìn nhận tư cách chủ thể độc lập của trí tuệ nhân tạo trong việc chịu trách nhiệm pháp lý nói chung và chịu trách nhiệm hình sự nói riêng. Mặc dù chưa có văn bản pháp lý của bất kỳ quốc gia nào công nhận tư cách chủ thể độc lập của trí tuệ nhân tạo, nhưng đã có Ả Rập Xê Út cấp quy chế quốc tịch cho Robot Sofia. Và Nghị quyết năm 2016 của Nghị viện châu Âu cũng mở ra hướng tiếp cận về lâu dài có thể xem xét công nhận tư cách pháp lý đặc biệt cho robot. Điều đó cũng có nghĩa là, nền tảng lý luận của vấn đề chủ thể của quan hệ pháp luật cần được đặt ra để xem xét với cách tiếp cận mới rộng mở hơn. Nói cách khác, không thể tiếp cận pháp luật của tương lai dưới góc nhìn cố hữu quen thuộc (và có phần xơ cứng) của pháp luật hiện hành. Hệ thống pháp luật truyền thống cần phải thay đổi để thích ứng với sự tiến bộ của công nghệ nói chung và của trí tuệ nhân tạo nói riêng.

Thứ năm, trí tuệ nhân tạo, với trí thông minh của mình đã ngày càng độc lập hơn trong quá trình ra quyết định. Điều này đặt ra những thách thức về mặt đạo đức mà những nhà làm chính sách cần tính tới. Đâu là giới hạn cho sự phát triển các tính năng ngày càng trở nên vô cùng thông minh của trí tuệ nhân tạo? Liệu sự phát triển vượt bậc của trí tuệ nhân tạo có dẫn đến tình huống giống như công nghệ nhân bản vô tính cừu Dolly hay không? Liệu có nên hạn chế hoặc nghiêm cấm các nghiên cứu thử nghiệm chế tạo trí tuệ nhân tạo sở hữu những hành vi phi đạo đức vượt ra khỏi tầm kiểm soát của con người  hay không? Vì nếu điều đó xảy ra, sẽ có nguy cơ làm phá vỡ quy luật phát triển tự nhiên, đi ngược lại quy luật tiến hóa của xã hội loài người; từ đó xã hội loài người có thể rẽ sang một lối khác phi tự nhiên. Những thách thức về đạo đức đặt ra không chỉ với những đối tượng liên quan là con người, như nhà lập trình, nhà sản xuất, người sử dụng v.v… mà còn đặt ra với chính thực thể trí tuệ nhân tạo. Liệu có cần hay không việc thiết lập các thuật toán hạn chế, ngăn chặn để trí tuệ nhân tạo không có “môi trường” phát triển theo hướng có hại, hoặc không để trí tuệ nhân tạo vượt qua “lằn ranh đỏ” của sự vi phạm đạo đức, vi phạm quy luật phát triển tự nhiên của loài người? Ngoài ra, vấn đề đạo đức trong lĩnh vực trí tuệ nhân tạo còn đề cập tới các câu hỏi về sự tin cậy, sự minh bạch, phân biệt đối xử, vấn đề bảo vệ quyền riêng tư; sự lựa chọn hành động của chính thực thể trí tuệ nhân tạo v.v… Đây là những khía cạnh mà các nhà hoạch định chính sách của Việt Nam cần nghiên cứu.

5. Kết luận

Trong Thế kỷ 21, sự tham gia của máy móc có trí tuệ nhân tạo mang lại những lợi ích vô cùng to lớn cho con người; nhưng cũng chính sự tiến bộ vượt bậc của trí tuệ nhân tạo, trong nhiều trường hợp đã vượt quá sự kiểm soát của con người và gây ra những hệ lụy tiêu cực. Do thiếu khung pháp lý điều chỉnh, những vụ gây thiệt hại về tính mạng và tài sản của các thực thể trí tuệ nhân tạo chưa được giải quyết thấu đáo về trách nhiệm pháp lý; khiến quyền, lợi ích của người bị thiệt hại chưa được bảo đảm. Vì vậy, đây là lúc cần nghiên cứu, xây dựng một khung pháp lý toàn diện cho lĩnh vực trí tuệ nhân tạo, từ chính sách để tháo gỡ những rào cản, thúc đẩy sự phát triển công nghệ trí tuệ nhân tạo, đến những vấn đề về trách nhiệm pháp lý nói chung, trách nhiệm hình sự nói riêng trong trường hợp trí tuệ nhân tạo gây thiệt hại cho con người và tài sản.

Để xây dựng khung pháp lý về trí tuệ nhân tạo, trong đó có vấn đề trách nhiệm pháp lý và trách nhiệm hình sự đối với các đối tượng liên quan đến trí tuệ nhân tạo, chúng tôi cho rằng cách tiếp cận của Liên minh châu Âu thể hiện được nguyên tắc hài hòa, vừa bảo đảm sự thận trọng, không phá vỡ hoàn toàn nền tảng của cơ chế pháp luật hiện hành vừa thể hiện sự cởi mở trước những tiến bộ của khoa học công nghệ và khoa học pháp lý trong bối cảnh CMCN 4.0. Đây là cách tiếp cận mà pháp luật Việt Nam nên nghiên cứu, tham khảo.

TRÍCH NGUỒN:

TS. Nguyễn Thị Thu Vân, Phó Viện trưởng Viện Pháp luật Kinh tế – Trường ĐH Tài chính Ngân hàng Hà Nội. Bài đăng tại Tạp chí Pháp luật và Phát triển – Hội Luật gia Việt Nam số tháng 11+12/2022. Nhận ngày 3/12/2022. Duyệt đăng ngày 15/12/2022. Email: [email protected]

Bài viết này có sử dụng một phần kết quả nghiên cứu của tác giả trình bày tại Hội thảo “Nghiên cứu đề xuất hoàn thiện trách nhiệm hình sự của các đối tượng liên quan đến trí tuệ nhân tạo” ngày 23/11/2022 của Bộ Tư pháp.

[1] Một số quốc gia đã cố gắng định nghĩa thuật ngữ “trí tuệ nhân tạo” trong pháp luật. Ví dụ Hàn Quốc vào năm 2008 đã ban hành Luật khuyến khích phát triển và phổ biến Robot thông minh (Law on Promotion of Development and Dissemination of Smart Robots), trong đó định nghĩa “Robot thông minh là một thiết bị cơ học có khả năng nhận biết môi trường, nhận biết các tình huống mà nó hoạt động và tự di chuyển xung quanh theo các mục tiêu đã được đề ra”.

Theo Alton Vasiliev, Sergey Zemlukov and all., Ethical and legal aspects of the use of artificial intelligence in Russia, EU, and the USA: comparative legal analysis, RELIGACIÓN. REVISTA DE CIENCIAS SOCIALES Y HUMANIDADES, Vol 4, Nº 19, Quito, 212-220 (2019). https://www.redalyc.org/journal/6437/643770323032/html/. Tuy nhiên, cho đến hiện nay các định nghĩa về trí tuệ nhân tạo chủ yếu được đưa ra dưới góc nhìn kỹ thuật của các chuyên gia về trí tuệ nhân tạo, còn dưới góc độ pháp luật thì chưa có nhiều hệ thống pháp luật đưa ra định nghĩa về khái niệm này.

TÀI LIỆU THAM KHẢO

  1. Asimov, Isaac, “The Three Laws”, Compute!, November 1981, Issue 18 Vol 3, The Journal for Profressive Computing.

https://colorcomputerarchive.com/repo/Documents/Magazines/Compute%20(Clean)/Compute_Issue_018_1981_Nov.pdf

  1. Boisvert, Anne-Marie, Louis Lebel, l’imputabilité et les limites à la faculté de blâmer, (2017) 94-3 Revue du Barreau canadien 579, 2017 CanLIIDocs 156.

https://cbr.cba.org/index.php/cbr/article/view/4389

  1. Birmingham and Gloucester Railway., [18421 3 Q.B. 233: Daily Mirror Newspapers Ltd., (1922), 2 K.B. 530. K. BALAKRISHNAN, Corporate criminal liability – Evolution of the concept.

http://dspace.cusat.ac.in/jspui/bitstream/123456789/10911/1/Corporate%20criminal%20liability%20-.PDF

  1. Charney, Rachel, A Review of When Robots Kill: Artificial Intelligence under the Criminal Law by Gabriel Hallevy, U. Toronto Fac. L. Rev. 69, Vol 73, Issue 1, (2015).

https://go.gale.com/ps/i.do?p=AONE&u=googlescholar&id=GALE|A421909790&v=2.1&it=r&sid=sitemap&asid=a83265f6

  1. Cherkassky, Lisa, Criminal law, Coll. Course notes, New York, Routledge (2013).
  2. Hallevy, Gabriel, The Criminal Liability of Artificial Intelligence Entities: From Science Fiction to Legal Social Control, 4 Akron Intellectual Property Journal 171 (2010).

https://www.semanticscholar.org/paper/The-Criminal-Liability-of-Artificial-Intelligence-Hallevy/fe9e4300c68c7490b8831a0d576333f9810d8159

  1. Hallevy, Gabriel, When Robots Kill: Artificial Intelligence under Criminal Law, Northeastern University Press (2013).

https://www.amazon.com/When-Robots-Kill-Artificial-Intelligence/dp/1555538053

  1. Joanna J. Bryson (2010), Robots Should be Slaves, 8 NAT. LANGUAGE PROCESSING.

http://www.cs.bath.ac.uk/~jjb/ftp/Bryson-Slaves-Book09.html

  1. Kelley, Richard et al., Liability in Robotics: An International Perspective on Robots as Animals, 24 ADVANCED OBOTICS (2010.)

https://www.cse.unr.edu/~monica/Research/Publications/Journals/KelleyEtAl_AR_10.pdf

  1. Laura Ellyson, La responsabilité criminelle et l’intelligence artificielle: quelques pistes de réflexion Les Cahiers de propriété intellectuelle (2018).

https://cpi.openum.ca/files/sites/66/6.-La-responsabilite%CC%81-criminelle-et-lintelligence-artificielle-quelques-pistes-de-re%CC%81flexion.pdf

  1. Lê Hồng Hạnh, Trương Hồng Quang, Các nguyên lý của chế định trách nhiệm sản phẩm tại Hoa Kỳ và một số quốc gia, Tạp chí Nhà nước và Pháp luật số 2(262) tháng 2/2010.
  2. Leon E. Wein, The Responsibility of Intelligent Artifacts: Toward an Automation Jurisprudence, 6 HARV. J.L. & TECH. 103, 140 (1992).

https://jolt.law.harvard.edu/assets/articlePDFs/v06/06HarvJLTech103.pdf

  1. Lior, Anat, AI Entities as AI Agents: Artificial Intelligence Liability and the AI Respondeat Superior Analogy, Mitchell Hamline Law Review, Vol. 46, Iss. 5 , Article 2, (2020).

https://open.mitchellhamline.edu/mhlr/vol46/iss5/2/

  1. Морхат Петр Мечиславович, К вопросу о правосубъектности «электронного лица», Юридические исследования, 2018 – 4.

https://cyberleninka.ru/article/n/k-voprosu-o-pravosubektnosti-elektronnogo-litsa/viewer.

  1. Nguyễn Ngọc Hòa, Trách nhiệm hình sự của pháp nhân thương mại, NXN Tư pháp, Hà Nội, 2020.
  2. Padhy, N.P., Artificial intelligence and intelligent system, Oxford University Press 2005.
  3. Peter M. Asaro, A Body to Kick, but Still No Soul to Damn: Legal Perspectives on Robotics, in ROBOT ETHICS: THE ETHICAL AND SOCIAL IMPLICATIONS OF ROBOTICS (2011).

https://www.sas.upenn.edu/~cavitch/pdf-library/Asaro_Body.pdf

  1. Schaerer, Enrique et al., Robots as Animals: A Framework for Liability and Responsibility in Human-Robot Interactions, THE 18TH IEEE INTERNATIONAL SYMPOSIUM ON ROBOT AND HUMAN INTERACTIVE COMMUNICATION (2009).

https://www.researchgate.net/publication/224079164_Robots_as_Animals_A_Framework_for_Liability_and_Responsibility_in_Human-Robot_Interactions

  1. Scherer, Matthew U., Of Wild Beasts and Digital Analogues: The Legal Status of Autonomous Systems, (2018)

https://scholars.law.unlv.edu/cgi/viewcontent.cgi?article=1765&context=nlj

  1. Vasiliev, Alton, Sergey Zemlukov and all., Ethical and legal aspects of the use of artificial intelligence in Russia, EU, and the USA: comparative legal analysis, RELIGACIÓN. REVISTA DE CIENCIAS SOCIALES Y HUMANIDADES, Vol 4, Nº 19, Quito, ( 2019).

https://www.redalyc.org/journal/6437/643770323032/html/

  1. Nguyễn Thị Thu Vân, Nguyễn Thị Diễn, Kinh nghiệm của một số quốc gia về trách nhiệm hình sự của các đối tượng liên quan đến trí tuệ nhân tạo, Tham luận trình bày tại Hội thảo của Bộ Tư pháp “Nghiên cứu đề xuất hoàn thiện trách nhiệm hình sự của các đối tượng liên quan đến trí tuệ nhân tạo” ngày 23/11/2022 tại Hà Nội.

Trịnh Tiến Việt, Các mô hình trách nhiệm hình sự đối với thực thể trí tuệ nhân tạo: Từ khoa học viễn tưởng đến viễn cảnh đặt ra trong chính sách, pháp luật hình sự Việt Nam, VNU Journal of Science: Legal Studies, Vol. 35, No. 4 (2019) 1-19.