Gemini Live z nowymi funkcjami: kamera i udostępnianie ekranu dla wszystkich
Google rozszerza funkcjonalność swojego asystenta AI Gemini Live, wprowadzając dwie istotne nowości – udostępnianie obrazu z kamery oraz ekranu smartfona. Od 31 maja 2025 roku opcje te są dostępne dla wszystkich użytkowników systemów Android i iOS, zarówno w darmowej, jak i płatnej wersji usługi. Dzięki temu użytkownicy mogą na bieżąco pokazywać asystentowi to, co widzą przez kamerę, lub dzielić się zawartością swojego ekranu, co umożliwia bardziej naturalną i kontekstową komunikację z AI.

- Google udostępnił 31 maja 2025 dwie nowe funkcje Gemini Live – udostępnianie kamery i ekranu – dla wszystkich użytkowników Androida i iOS, także w darmowej wersji.
- Funkcje pozwalają na bardziej naturalną i multimodalną interakcję z AI, umożliwiając pokazywanie otoczenia i dzielenie się ekranem w czasie rzeczywistym.
- Nowości są częścią szerszej strategii Google, zaprezentowanej podczas I/O 2025, obejmującej także wsparcie Gemini dla aplikacji takich jak Google Calendar, Maps oraz integrację z Android Auto.
- Gemini Live na iOS umożliwia analizę otoczenia i obiektów, a także podsumowywanie treści wideo z Google Drive, co rozszerza funkcjonalność asystenta.
- Funkcje są dostępne zarówno dla kont darmowych, jak i płatnych, jednak niektóre z nich mogą być sprzętowo ograniczone do urządzeń Google Pixel.
Nowe funkcje są efektem szeroko zakrojonych testów i wpisują się w szerszą strategię Google, której celem jest zwiększenie możliwości Gemini Live, w tym integracja z popularnymi aplikacjami Google Calendar oraz Maps. Wprowadzenie tych rozwiązań zostało zaprezentowane podczas konferencji Google I/O 2025 i stanowi ważny krok w kierunku bardziej zaawansowanego wykorzystania sztucznej inteligencji w codziennych sytuacjach.
Udostępnienie funkcji udostępniania kamery i ekranu w Gemini Live
31 maja 2025 Google oficjalnie udostępnił dwie nowe funkcje w ramach asystenta Gemini Live – możliwość udostępniania obrazu z kamery oraz zawartości ekranu. Jak podaje portal Tabletowo.pl, opcje te są dostępne dla wszystkich użytkowników korzystających z urządzeń z systemami Android i iOS, w tym także w bezpłatnej wersji usługi. Umożliwiają one użytkownikom pokazywanie asystentowi tego, co widzą w czasie rzeczywistym, zarówno przez obiektyw aparatu, jak i na ekranie telefonu.
Serwis 9to5google.com informuje, że funkcje te pojawiły się po okresie testów i są szeroko dostępne w Stanach Zjednoczonych na iPhone’ach oraz iPadach, zarówno w ramach darmowych, jak i płatnych kont. To pozwala na bardziej kontekstowe odpowiedzi i wsparcie ze strony AI, dostosowane do aktualnej sytuacji użytkownika.
Jednak według androidsage.com funkcja udostępniania kamery, nazwana 'Share Camera’, może być ograniczona do urządzeń Google Pixel, co wskazuje na pewne bariery sprzętowe i ograniczenia w dostępie do pełnej funkcjonalności. Mimo to nowe opcje są elementem rozległej strategii Google, zakładającej rozszerzenie Gemini Live na wszystkie platformy firmy, w tym planowaną integrację z Android Auto, co ma przynieść jeszcze bardziej zaawansowaną interakcję w samochodzie.
Kontekst i znaczenie nowych funkcji Gemini Live
Podczas konferencji Google I/O 2025 przedstawiono dalsze plany rozwoju AI, w tym nową wersję Gemini 2.5 Pro, wyposażoną w funkcję 'Deep Think’, która ma poprawić zdolności rozumowania asystenta. Jak podkreśla serwis revolgy.com, udostępnienie opcji udostępniania kamery i ekranu wpisuje się w dążenie do stworzenia bardziej naturalnej, multimodalnej interakcji z AI.
Według 9to5google.com, nowości pozwalają rozszerzyć zastosowania asystenta na nowe scenariusze, takie jak analiza obiektów i scen w czasie rzeczywistym, co otwiera nowe możliwości wykorzystania AI – od pomocy w nawigacji, przez rozpoznawanie przedmiotów, aż po wsparcie w organizacji dnia. Serwis iphoneitalia.com podkreśla, że na urządzeniach Apple Gemini Live umożliwia analizę otoczenia i obiektów, co znacząco zwiększa użyteczność asystenta na iPhone’ach oraz iPadach.
Co więcej, według googlewatchblog.de, Gemini Live zastąpi Google Assistant w Android Auto, oferując użytkownikom samochodów bardziej zaawansowane funkcje i wygodniejszą, kontekstową interakcję podczas jazdy. Dodatkowo, jak podaje tgspot.co.il, Gemini potrafi teraz podsumowywać treści wideo przechowywane na koncie Google Drive i odpowiadać na pytania dotyczące tych materiałów, co poszerza spektrum zastosowań sztucznej inteligencji.
Dostępność i perspektywy rozwoju Gemini Live
Funkcje udostępniania kamery i ekranu są dostępne od końca maja 2025 na urządzeniach z systemami Android i iOS, w tym na iPhone’ach i iPadach na rynku amerykańskim, podają serwisy 9to5google.com oraz ccstartup.com. Nowości obejmują zarówno konta darmowe, jak i płatne, co przyczynia się do zwiększenia zasięgu i dostępności tych zaawansowanych narzędzi dla szerokiego grona użytkowników.
Jak wskazuje androidsage.com, Google planuje dalsze rozszerzenie asystenta Gemini na wszystkie swoje platformy, co może oznaczać integrację z kolejnymi usługami i urządzeniami, w tym rozszerzenie funkcjonalności w ramach ekosystemu Google. Niemniej jednak ograniczenia sprzętowe, takie jak potencjalne wyłączanie funkcji 'Share Camera’ jedynie dla urządzeń Google Pixel, mogą wpływać na pełne wykorzystanie możliwości oferowanych przez Gemini Live przez wszystkich użytkowników.
Wprowadzenie tych funkcji odzwierciedla rosnące znaczenie sztucznej inteligencji jako pomocnika w codziennym życiu, który pozwala na bardziej naturalną i intuicyjną komunikację z technologią. Dzięki temu asystent Gemini Live staje się nie tylko bardziej użyteczny, ale i bliższy użytkownikom, zyskując stałe miejsce w ich cyfrowym świecie.