Алгоритм действий таков: пользователь, нажав на кнопку, делает снимок на PA!GO. Далее гаджет анализирует картинку и коротко описывает увиденное. Нажав на вторую кнопку, можно получить детальное описание объекта.
Основа разработки – Google TensorFlow, а также USB-ускоритель Coral. Последний работает на чипе Google Edge TPU, обеспечивающем машинное обучение. Он подключен по интерфейсу USB 2.0 к одноплатному компьютеру Raspberry Pi Zero. Для распознавания предметов имеется специальное ПО для компьютерного зрения MobileNetV. Данные по различным категориям хранятся в пакете iNaturalist.
PA!GO также умеет подключаться к монитору или телевизору по Chromecast. Далее он в особом приложении демонстрирует то, что его пользователь видел в течение дня. На устройство легко крепится микропроектор, позволяющий выводить те же картинки на любую поверхность.