Щоб отримати всі анотації об’єктів із відповіді API у сфері штучного інтелекту – API Google Vision – розширене розуміння зображень – виявлення об’єктів, ви можете використати формат відповіді, наданий API, який включає список виявлених об’єктів разом із відповідними їм. обмежувальні рамки та оцінки достовірності. Розбираючи цю відповідь, ви можете витягнути анотації бажаного об’єкта.
Відповідь API зазвичай складається з об’єкта JSON, що містить різні поля, включаючи поле «localizedObjectAnnotations», яке містить виявлені об’єкти. Кожна анотація об’єкта містить таку інформацію, як ім’я об’єкта, координати його обмежувальної рамки та показник достовірності, що вказує на впевненість API у виявленні.
Щоб отримати анотації об’єктів, виконайте такі дії:
1. Проаналізуйте відповідь API: почніть із аналізу відповіді JSON, отриманої від API. Це можна зробити за допомогою бібліотеки аналізу JSON або вбудованих функцій, наданих вашою мовою програмування.
2. Доступ до поля «localizedObjectAnnotations». Після аналізу відповіді перейдіть до поля «localizedObjectAnnotations», яке містить виявлені об’єкти. Зазвичай це поле є масивом анотацій об’єктів.
3. Ітерація по анотаціях об’єктів: ітерація по кожній анотації об’єкта в масиві. Кожна анотація представляє виявлений об’єкт на зображенні.
4. Отримайте релевантну інформацію: витягніть релевантну інформацію з анотації кожного об’єкта, таку як ім’я об’єкта, координати обмежувальної рамки та показник достовірності. Ці деталі можна отримати як окремі поля в анотації кожного об’єкта.
5. Зберігайте або обробляйте видобуту інформацію: залежно від ваших вимог ви можете зберігати видобуту інформацію в структурі даних або обробляти її далі для аналізу чи інших цілей. Наприклад, ви можете зберегти назви об’єктів і їхні відповідні координати обмежувальної рамки в базі даних або використовувати їх для подальших завдань розуміння зображення.
Ось спрощений приклад для ілюстрації процесу вилучення:
python import json # Assume 'response' contains the API response in JSON format response =
{
"localizedObjectAnnotations": [
{
"середина": "/m/01g317",
"ім'я": "кішка",
"оцінка": 0.89271355,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.1234, "y": 0.5678},
{"x": 0.5678, "y": 0.1234}
] }
},
{
"середина": "/m/04rky",
"ім'я": "собака",
"оцінка": 0.8132468,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.4321, "y": 0.8765},
{"x": 0.8765, "y": 0.4321}
] }
}
] }
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
У цьому прикладі ми припускаємо, що відповідь JSON містить два виявлені об’єкти: кота та собаку. Код аналізує відповідь, отримує доступ до поля «localizedObjectAnnotations», повторює кожну анотацію об’єкта та витягує назву об’єкта, координати обмежувальної рамки та оцінку достовірності. Зрештою, отримана інформація друкується, але ви можете змінити код відповідно до ваших потреб.
Виконуючи ці кроки, ви можете ефективно витягти всі анотації об’єктів із відповіді API у сфері штучного інтелекту – API Google Vision – Розширене розуміння зображень – Виявлення об’єктів.
Інші останні запитання та відповіді щодо Розширене розуміння зображень:
- Які попередньо визначені категорії для розпізнавання об’єктів в API Google Vision?
- Який рекомендований підхід до використання функції виявлення безпечного пошуку в поєднанні з іншими методами модерування?
- Як ми можемо отримати доступ і відобразити значення ймовірності для кожної категорії в анотації безпечного пошуку?
- Як ми можемо отримати анотацію безпечного пошуку за допомогою API Google Vision у Python?
- Які п’ять категорій включає функція виявлення безпечного пошуку?
- Як функція безпечного пошуку Google Vision API виявляє відвертий вміст у зображеннях?
- Як ми можемо візуально визначити та виділити виявлені об’єкти на зображенні за допомогою бібліотеки подушок?
- Як ми можемо організувати отриману інформацію про об’єкт у табличному форматі за допомогою фрейму даних pandas?
- Які бібліотеки та мова програмування використовуються для демонстрації функціональності API Google Vision?
- Як API Google Vision виконує виявлення об’єктів і локалізацію в зображеннях?
Більше запитань і відповідей див. у Розширеному розумінні зображень