Hội nghị chuyên đề Gartner IT / Xpo 2019: Gartner Fellow thảo luận về đạo đức trong trí tuệ nhân tạo

0
6

        Đồng nghiệp của Gartner Frank Buytendijk nói rằng điều quan trọng là phải đi trước các dự án AI với đào tạo đạo đức
    

        
                                                                                    
                        

                 [19459] ] ]
    

     Hội thảo chuyên đề Gartner IT Xpo 2019: Gartner Fellow thảo luận về đạo đức trong trí tuệ nhân tạo
     Đồng nghiệp Gartner Frank Buytendijk nói rằng điều quan trọng là phải đi trước các dự án AI với đào tạo đạo đức
    

    . Sau đây là bảng điểm được chỉnh sửa của cuộc hội thoại.

    
        

                            

Thông tin thêm về trí tuệ nhân tạo

                

Frank Buytendijk: Bất cứ khi nào có một công nghệ mới phát triển nhanh đến mức như mọi người và các tổ chức và thậm chí là một xã hội, chúng ta không thể hiểu được những gì nó làm, câu hỏi về đạo đức được đưa ra. Cái này tốt không? Chuyện gì đang xảy ra vậy? Điều này cần một số loại giám sát của cha mẹ, hoặc điều này có thể phát triển một cách tự trị? Và AI chắc chắn là công nghệ có sức ảnh hưởng lớn nhất đặt ra cho những câu hỏi này. Vậy làm thế nào để chúng ta chắc chắn rằng AI hành xử đúng cách, và làm thế nào để chúng ta tránh điều đó hành xử sai?

XEM: Những thách thức về đạo đức của AI: Hướng dẫn của khách hàng tiềm năng (PDF miễn phí) (TechRepublic)

Có một cuộc tranh luận lớn về AI, và tầm nhìn tương lai lớn là chúng ta muốn có các quy tắc đạo đức được xây dựng trong AI . Trong thực tế, điều này đã được tiên phong bởi nhà văn khoa học viễn tưởng, Isaac Asimov, khi ông giới thiệu các quy tắc robot của mình (The Three Laws of Robotics). Điều trớ trêu là ông đã sử dụng chúng như một công cụ văn học, và đã viết những câu chuyện thực sự hay về cách những quy tắc đó không bao giờ hoạt động, và đó vẫn là trường hợp ngày nay. Ý tưởng rằng bạn có thể xây dựng các quy tắc đạo đức vào AI là một tầm nhìn trong tương lai.

Tình trạng thanh toán trên thị trường hiện nay là các nhà phát triển AI cần phải chịu trách nhiệm về các hành vi của AI. Ngay cả khi các thuật toán, trong sản xuất khi chúng đang chạy, hãy học theo những cách không lường trước được và không lường trước được. Đây luôn là trách nhiệm của nhà phát triển cần được duy trì ngay cả khi các hệ thống đang được sản xuất.

Có rất nhiều cách bạn có thể sử dụng AI về mặt đạo đức và cả về mặt đạo đức. Chẳng hạn, một cách thường được trích dẫn là sử dụng các thuộc tính của những người không nên sử dụng. Chẳng hạn, khi cấp cho ai đó một khoản thế chấp hoặc quyền truy cập vào một cái gì đó hoặc đưa ra các quyết định khác. Hồ sơ chủng tộc thường được đề cập như một ví dụ. Vì vậy, bạn cần lưu ý những thuộc tính nào đang được sử dụng để đưa ra quyết định. Làm thế nào để các thuật toán học? Các cách khác để lạm dụng AI là, ví dụ, với máy bay không người lái giết người tự trị. Chúng tôi có cho phép các thuật toán quyết định ai bị ném bom bởi máy bay không người lái và ai không? Và hầu hết mọi người dường như đồng ý rằng máy bay không người lái giết người tự trị không phải là một ý tưởng hay.

Điều quan trọng nhất mà một nhà phát triển có thể làm để tạo ra AI có đạo đức là không nghĩ đây là công nghệ, mà là một bài tập trong tự phản ánh. Các nhà phát triển có những thành kiến ​​nhất định. Họ có những đặc điểm nhất định. Chẳng hạn, các nhà phát triển rất muốn tìm kiếm giải pháp tối ưu cho một vấn đề; nó được xây dựng trong bộ não của họ. Nhưng đạo đức là một điều rất đa nguyên. Có những người khác nhau có những ý tưởng khác nhau. Không có một câu trả lời tối ưu nào là tốt và xấu. Trước hết, các nhà phát triển nên nhận thức được những thành kiến ​​đạo đức của chính họ về những gì họ nghĩ là tốt và xấu và tạo ra một môi trường đa dạng nơi họ kiểm tra những giả định đó và nơi họ kiểm tra kết quả của họ. Bộ não của nhà phát triển không phải là bộ não hay loại não duy nhất ngoài kia, để nói rằng ít nhất.

Vì vậy, AI và đạo đức thực sự là một câu chuyện về hy vọng. Đây là lần đầu tiên một cuộc thảo luận về đạo đức được diễn ra trước khi triển khai rộng rãi, không giống như trong các vòng trước, nơi các cân nhắc về đạo đức đã diễn ra sau các hiệu ứng. Chẳng hạn, với dữ liệu lớn và quyền riêng tư, tất cả các cuộc thảo luận đã diễn ra khi quá ít, quá muộn. Với tác động của điện thoại thông minh đối với các mối quan hệ và liên lạc của con người, điều đó đã xảy ra với chúng tôi. Không bao giờ có cuộc thảo luận đó lên phía trước. Vì vậy, với AI, cuộc thảo luận đang diễn ra ở phía trước. Và những gì chúng ta thấy, và đó là một điều thực sự tốt, đó là các tổ chức thực hiện nghiêm túc AI cũng thường đầu tư vào đào tạo đạo đức. Vì vậy, đạo đức trở thành một phần của đào tạo AI trong các trường đại học, một phần của đào tạo khoa học dữ liệu trong các trường đại học và các công ty đặt cược vào AI cũng đang chăm sóc đào tạo đạo đức. Đây thực sự là một cái gì đó đang trở thành một thực tiễn tốt nhất.

                                                                                

                                                

Cũng xem