Google mở rộng khả năng ML Kit để xây dựng máy học thành ứng dụng di động

0
2

            Tại Google I / O, Google đã ra mắt các khả năng mới cho SDK máy học có sẵn trên Firebase.
        

            
                                                                             
            
            

 google-io-2017-1952.jpg "width =" 770 "/> </span><figcaption>
<p>
                                            Hình: James Martin / CNET<br />
                                        </p>
</figcaption></figure>
<p> <em> Bài viết này ban đầu xuất hiện trên ZDNet. </em> </p>
<p> Google vào thứ ba đã công bố một số cập nhật cho Firebase, nền tảng phát triển di động của nó. Đáng chú ý, Google đang tung ra các khả năng mới cho ML Kit, SDK máy học đi kèm với các API sẵn sàng sử dụng, trên thiết bị và trên nền tảng đám mây có hỗ trợ cho các mô hình tùy chỉnh. Các khả năng mới, được ra mắt trong phiên bản beta, bao gồm API dịch trên thiết bị, API theo dõi và phát hiện đối tượng và AutoML Vision Edge. </p>
<p> <strong> Ngoài ra: </strong> <strong> Pixel 3A là chính thức: Đây là những gì bạn cần biết </strong> <strong> | </strong> <strong> Android Q: Mọi thứ bạn cần biết </strong> </p>
<p> Google đã công bố các bản cập nhật tại Google I / O, sự kiện dành cho nhà phát triển hàng năm mà Google thường đưa ra một số thông báo liên quan đến AI. Tin tức về Firebase được đưa ra trong Bài phát biểu của nhà phát triển vào ngày 1 của hội nghị. </p>
<p> Với API dịch trên thiết bị, nhà phát triển ứng dụng có thể truy cập vào các mô hình ngoại tuyến để dịch văn bản nhanh, động sang 58 ngôn ngữ. Nó sử dụng các mô hình ML tương tự hỗ trợ Google Dịch. API theo dõi và phát hiện đối tượng cho phép ứng dụng của bạn định vị và theo dõi, trong thời gian thực, đối tượng nổi bật nhất trong nguồn cấp dữ liệu camera trực tiếp. Chẳng hạn, IKEA đã sử dụng API mới để tạo trải nghiệm ứng dụng di động nơi người dùng có thể chụp ảnh các mặt hàng gia dụng để tìm sản phẩm hoặc các mặt hàng tương tự trong danh mục trực tuyến của nhà bán lẻ. </p>
<p> Trong khi đó, với AutoML Vision Edge, nhà phát triển ứng dụng có thể tạo các mô hình phân loại hình ảnh tùy chỉnh. Ví dụ: bạn có thể xây dựng một ứng dụng xác định các loại thực phẩm khác nhau hoặc các loài động vật khác nhau. Các nhà phát triển có thể tải dữ liệu đào tạo của họ lên bảng điều khiển Firebase và sử dụng công nghệ AutoML của Google để xây dựng mô hình TensorFlow Lite tùy chỉnh để chạy cục bộ trên thiết bị của người dùng cuối. </p>
<p> Ngoài các cải tiến ML Kit, Google đã công bố một số cập nhật Firebase khác. Chẳng hạn, Google đang mở rộng, trong bản beta, Giám sát hiệu suất Firebase cho các ứng dụng web. Nó cũng giới thiệu một công cụ xây dựng đối tượng mới trong Google Analytics cho Firebase. </p>
<p> <strong> Cũng: . Họ cũng đang phát hành một trình giả lập Cloud Function mới. </p>
<p> Các nhà phát triển trong Firebase cũng có thể được hưởng lợi với các cảnh báo vận tốc mới, có thể định cấu hình trong Firebase Crashlytics cũng như các cải tiến cho Phòng thí nghiệm Firebase. </p>
<div data-component=                                                                                 

                                                

Thông tin thêm từ Google I / O trên ZDNet

LEAVE A REPLY

Please enter your comment!
Please enter your name here