Blog
Nowe możliwości AI i dokonania SpaceX. To był naprawdę niesamowity tydzień, więc omówmy wszystko krok po kroku.
To był naprawdę niesamowity tydzień, więc omówmy wszystko krok po kroku.
Spektakularny Sukces SpaceX: Pierwsze Udane Złapanie Boostera
To był naprawdę niesamowity okres. Bardzo dużo się dzieje nie tylko w moim ogródku, ale i na świecie. Pomijam już nawet to że w US były wybory, które wygrali republikanie. W niniejszym artykule postaram się opowiedzieć krok po kroku to co się wydarzyło.
Zacznijmy od jednego z najbardziej ekscytującym i najbardziej niesamowitych osiągnięć. SpaceX z powodzeniem złapał swój booster rakietowy w powietrzu za pomocą urządzenia, które nazywają “Małymi Pałeczkami”. Niesamowite jest obserwowanie, jak szybko porusza się ten pojazd, a przy pierwszej próbie udało im się złapać Super Heavy booster z powrotem na wieży startowej. Widok był zapierający dech w piersiach, a nawet po wielokrotnym obejrzeniu wciąż mam ciarki.
bserwuje to co się dzieje w SpaceX ponieważ po zamknięciu programu promów kosmicznych przez NASA, to tam dzieje się magia, a właśnie tego nam potrzeba. To jest niesamowite, że próba złapania lądującego członu udała się za pierwszym razem. Moim zdaniem to jest przełom w podróżach w kosmos,
Adobe MAX 2024: Rewolucja Sztucznej Inteligencji Firefly
Przejdźmy teraz do wiadomości o sztucznej inteligencji. Ostatnio odbyła się konferencja Adobe Max w Miami, coroczne wydarzenie, na którym Adobe prezentuje nowe produkty i zapowiada przyszłe projekty. Nie jest zaskoczeniem, że w tym roku głównym tematem była AI.
Podczas konferencji Adobe MAX 2024 firma Adobe zaskoczyła wszystkich, prezentując nowe, ekscytujące funkcje swojej generatywnej sztucznej inteligencji Firefly. Teraz, dzięki modelowi Firefly Video (w wersji beta), możemy tworzyć wideo na podstawie tekstowych opisów i obrazów! Wystarczy wpisać, co chcemy zobaczyć, kliknąć “Generuj”, a otrzymamy całkiem imponujące filmy. Co więcej, ulepszony model Firefly Image 3 generuje obrazy cztery razy szybciej niż wcześniej, a możliwości w Adobe Illustrator zostały rozszerzone dzięki modelowi Firefly Vector. Firefly jest teraz zintegrowany z takimi aplikacjami jak Photoshop, Express, Illustrator i Premiere Pro, co sprawia, że tworzenie staje się jeszcze prostsze i przyjemniejsze. Od marca 2023 roku użytkownicy wygenerowali ponad 13 miliardów obrazów za pomocą Firefly, co pokazuje, jak bardzo to narzędzie jest popularne. Najlepsze jest to, że Adobe dba o bezpieczeństwo komercyjne swoich modeli, więc możemy korzystać z nich bez obaw. Nowe funkcje Firefly nie tylko zwiększają naszą produktywność, ale także otwierają przed nami zupełnie nowe możliwości kreatywne!
Adobe Photoshop został również wzbogacony o ulepszenia oparte na sztucznej inteligencji, w tym przycisk “Znajdź rozpraszacze“, który umożliwia usuwanie niepożądanych elementów, takich jak przewody, kable czy ludzie. Funkcja Generative Fill została zaktualizowana do najnowszego modelu Firefly Image 3, oferując nowe możliwości, takie jak Generative Expand, Generate Similar i Generate Background.
Te funkcje są dostępne w wersjach beta aplikacji Adobe. Jeśli jesteś członkiem Creative Cloud, możesz pobrać wersje beta Photoshopa i Premiere Pro, aby je wypróbować.
Szybsza i Łatwiejsza Edycja Zdjęć: Nowe Funkcje w Adobe Lightroom
Adobe Lightroom wprowadził dwie nowe, przełomowe funkcje oparte na sztucznej inteligencji, które znacznie ułatwią i przyspieszą proces edycji zdjęć. Pierwsza z nich to Szybkie Akcje (Quick Actions). To narzędzie automatycznie analizuje Twoje zdjęcie i sugeruje kontekstowe edycje oraz inne odpowiednie działania. Potrafi rozpoznać elementy takie jak tło, oczy, zęby czy skóra, tworząc dla nich automatyczne maski. Dodatkowo proponuje najlepsze presety, dzięki czemu możesz ulepszyć zdjęcie jednym kliknięciem!
Druga nowość to Generative Remove. To ulepszone narzędzie pozwala na łatwe usuwanie niepożądanych obiektów ze zdjęć. Dzięki opcji “Detect Objects” precyzyjne zaznaczanie elementów do usunięcia jest prostsze niż kiedykolwiek. Wystarczy zakreślić lub zamalować pędzlem to, czego chcesz się pozbyć, a sztuczna inteligencja Adobe Firefly zajmie się resztą, wypełniając puste miejsca w naturalny sposób.
Obie te funkcje są dostępne we wszystkich wersjach Lightrooma i pozwalają fotografom skupić się na kreatywnej stronie edycji, eliminując potrzebę przechodzenia do Photoshopa w celu wykonania bardziej zaawansowanych operacji. Teraz możesz cieszyć się bardziej efektywnym i intuicyjnym procesem edycji bezpośrednio w Lightroomie!
Adobe Lightroom zyskał dwie nowe, imponujące funkcje oparte na sztucznej inteligencji, które znacząco ułatwią edycję zdjęć. Pierwsza z nich to Szybkie Akcje (Quick Actions). To narzędzie automatycznie analizuje Twoje zdjęcie i sugeruje kontekstowe edycje oraz inne odpowiednie działania, przyspieszając cały proces. Potrafi rozpoznać elementy takie jak tło, oczy, zęby czy skóra, tworząc dla nich automatyczne maski. Dodatkowo proponuje najlepsze presety, dzięki czemu możesz poprawić swoje zdjęcie jednym kliknięciem! Funkcja ta jest dostępna w wersji Early Access dla mobilnych i webowych wersji Lightrooma.
Druga nowość to Generative Remove. To ulepszone narzędzie pozwala na łatwe usuwanie niepożądanych obiektów ze zdjęć. Dzięki opcji “Detect Objects” precyzyjne zaznaczanie elementów do usunięcia jest prostsze niż kiedykolwiek. Wystarczy zakreślić lub zamalować pędzlem to, czego chcesz się pozbyć, a generatywna sztuczna inteligencja Adobe Firefly zajmie się resztą, wypełniając puste miejsca w naturalny sposób. Ta funkcja jest teraz dostępna we wszystkich wersjach Lightrooma.
dobe wprowadza nowatorskie narzędzia oparte na sztucznej inteligencji, które mają na celu ułatwienie pracy twórców i przyspieszenie procesów kreatywnych. **Project Clean Machine** to niesamowite narzędzie do czyszczenia i ulepszania materiałów wideo. Pozwala usuwać niechciane obiekty, poprawiać jakość obrazu oraz redukować szumy w nagraniach, co znacznie usprawnia postprodukcję filmową.
Kolejną innowacją jest Project Hi-Fi, który umożliwia tworzenie wysokiej jakości obrazów na podstawie prostych szkiców. Wystarczy narysować odręczny szkic, a sztuczna inteligencja przekształci go w realistyczny i szczegółowy obraz. To idealne rozwiązanie dla artystów koncepcyjnych i projektantów, którzy chcą szybko wizualizować swoje pomysły.
Nie można zapomnieć o Project Scene Stitch, który pozwala na generowanie złożonych scen 3D z wykorzystaniem obiektów 3D i renderowania wspomaganego AI. Użytkownik umieszcza obiekty w scenie, a sztuczna inteligencja wypełnia resztę szczegółów, tworząc realistyczne otoczenie. To narzędzie znacząco przyspiesza tworzenie środowisk 3D do filmów czy gier.
Wszystkie te projekty pokazują, jak Adobe wykorzystuje sztuczną inteligencję, by usprawnić procesy twórcze i produkcyjne w różnych dziedzinach. Dzięki nim twórcy mogą pracować bardziej efektywnie i realizować bardziej ambitne projekty, niezależnie od tego, czy zajmują się edycją wideo, czy projektowaniem 3D.
Adobe wprowadza rewolucyjne narzędzie o nazwie **Project Super Sonic**, które wykorzystuje sztuczną inteligencję do generowania efektów dźwiękowych dla materiałów wideo. Dzięki niemu tworzenie profesjonalnego audio staje się prostsze niż kiedykolwiek wcześniej!
Jedną z głównych funkcji jest **generowanie dźwięku na podstawie tekstu**. Wystarczy wpisać opis pożądanego efektu dźwiękowego, a system AI stworzy odpowiednie audio. To niesamowicie ułatwia proces dodawania dźwięków bez konieczności poszukiwania gotowych próbek.
Narzędzie potrafi również **rozpoznawać obiekty** w klatkach wideo i automatycznie generować dla nich odpowiednie efekty dźwiękowe. Wystarczy kliknąć na wybrany element w kadrze, a Project Super Sonic dostarczy idealnie dopasowany dźwięk.
Najbardziej imponującą funkcją jest jednak **sterowanie głosem**. Użytkownik może nagrać własną imitację dźwięku, a sztuczna inteligencja przekształci ją w profesjonalny efekt dźwiękowy o wysokiej jakości.
Technicznie rzecz biorąc, narzędzie generuje dźwięk w jakości **48 kHz**, oferuje wiele wariantów każdego efektu, automatycznie umieszcza dźwięki na osi czasu wideo oraz pozwala na nakładanie i miksowanie wielu efektów jednocześnie.
**Project Super Sonic** ma potencjał, by zrewolucjonizować proces produkcji audio w projektach wideo. Oszczędza czas, daje większą kontrolę i elastyczność twórcom oraz ułatwia pracę niezależnym artystom i małym zespołom. Choć obecnie jest to prototyp, w przyszłości może stać się nieocenionym narzędziem dla wszystkich, którzy chcą podnieść jakość dźwięku w swoich projektach.
Adobe wprowadza kolejną imponującą innowację o nazwie **Project Turntable**, zaprezentowaną podczas konferencji Adobe MAX 2024. To rewolucyjne narzędzie pozwala na obracanie dwuwymiarowych grafik wektorowych w przestrzeni trójwymiarowej, zachowując ich oryginalny, płaski styl. Teraz graficy mogą obracać swoje 2D projekty w dowolnym kierunku—zarówno poziomo, jak i pionowo—bez konieczności ponownego rysowania. Dzięki temu mogą oglądać obiekty z różnych perspektyw, zachowując wszystkie kluczowe elementy projektu niezależnie od kąta obrotu. Technologia łączy modelowanie geometryczne z uczeniem maszynowym, co zapewnia spójność wyglądu grafiki z każdego kąta. Proces jest niezwykle prosty: wystarczy kliknąć przycisk i przesunąć suwak, aby obrócić grafikę wektorową. **Project Turntable** ma potencjał zrewolucjonizować pracę grafików i projektantów, umożliwiając szybką wizualizację projektów z różnych perspektyw, usprawniając proces projektowania oraz inspirując do eksperymentowania z nowymi kątami i perspektywami. Choć narzędzie jest obecnie w fazie eksperymentalnej, jego ogromny potencjał może otworzyć przed twórcami zupełnie nowe możliwości w projektowaniu i prezentacji prac.
Te eksperymentalne projekty mogą w przyszłości stać się dostępne dla wszystkich, ukazując ekscytujące rozwiązania, nad którymi pracuje Adobe. Dają nam one przedsmak innowacji, które mogą zrewolucjonizować sposób, w jaki tworzymy i edytujemy treści. Z niecierpliwością czekamy na to, co Adobe przygotuje dla nas w nadchodzących latach!
Innowacyjne Narzędzia do Tworzenia Treści Wizualnych i Audio
Kaiber wprowadził na rynek innowacyjną platformę o nazwie **Superstudio**, która rewolucjonizuje generowanie wideo i obrazów przy użyciu sztucznej inteligencji. Superstudio integruje różne modele AI, takie jak **Dream Machine** od Luma Labs, służący do tworzenia realistycznych animacji wideo, **Flux** od Black Forest Labs – nowy model do generowania obrazów, oraz własne modele Kaiber do tworzenia zarówno obrazów, jak i wideo. Dzięki intuicyjnemu interfejsowi typu canvas, użytkownicy mogą łatwo łączyć różne narzędzia i modele, korzystając z funkcji przeciągnij i upuść oraz suwaków. To pozwala na jednoczesne generowanie obrazów i wideo, które następnie można wykorzystać jako dane wejściowe w nowych przepływach pracy, zwanych “Flows”.
Integracja różnych modeli AI w jednej platformie sprawia, że zaawansowane operacje stają się dostępne dla użytkowników o różnym poziomie umiejętności, eliminując konieczność przełączania się między wieloma aplikacjami i subskrypcjami. Superstudio nie tylko usprawnia proces twórczy i oszczędza czas, ale także oferuje większą elastyczność i dostępność narzędzi AI. Niedawne finansowanie od EQT Ventures i Crush Ventures podkreśla duże zainteresowanie i potencjał tej technologii.
Chociaż nie mamy szczegółowych informacji o platformie Crea AI, wydaje się, że oba rozwiązania – Kaiber Superstudio i Crea AI – reprezentują nowy trend w branży sztucznej inteligencji. Skupiają się na integracji i dostępności różnorodnych narzędzi do generowania wideo w jednym miejscu, co może znacząco ułatwić pracę twórcom treści. Dzięki temu mają oni szerszy wachlarz możliwości kreatywnych bez konieczności opanowywania wielu oddzielnych platform. To ekscytujące podejście otwiera przed nimi nowe perspektywy w tworzeniu i innowacji.
Suno wprowadziło właśnie innowacyjną funkcję o nazwie **Suno Scenes**, która pozwala na generowanie muzyki na podstawie Twoich obrazów i filmów! Teraz możesz tworzyć unikalne utwory muzyczne, korzystając z własnych zdjęć czy nagrań wideo. Proces jest niezwykle szybki i intuicyjny — wystarczy otworzyć aplikację Suno na swoim iPhonie, wybrać opcję **”Create”** i tryb **”Camera”**, a następnie zrobić zdjęcie, nagrać wideo lub wybrać coś z galerii. Sztuczna inteligencja Suno przetworzy Twój materiał i stworzy spersonalizowaną kompozycję muzyczną, idealnie dopasowaną do nastroju i estetyki Twojego obrazu czy filmu.
To niesamowite narzędzie otwiera nowe możliwości dla każdego, kto chce dodać wyjątkową ścieżkę dźwiękową do swoich wspomnień, eksperymentować z różnymi stylami muzycznymi lub po prostu cieszyć się kreatywną zabawą z muzyką i obrazem. Suno Scenes jest obecnie dostępne wyłącznie na urządzeniach z systemem iOS, a firma zachęca użytkowników do dzielenia się swoimi kreacjami w mediach społecznościowych z hashtagiem **\#sunoscenes**. To kolejny krok w kierunku uczynienia tworzenia muzyki jeszcze bardziej dostępnego dla wszystkich, niezależnie od umiejętności muzycznych!
**Synthesia** wprowadziła imponujący zestaw innowacyjnych rozwiązań w dziedzinie awatarów AI, zbliżając się coraz bardziej do koncepcji interaktywnych awatarów. Choć obecnie nie oferuje dokładnie takiej funkcji, jak awatar uczestniczący w spotkaniach w czasie rzeczywistym, ich technologia robi ogromne postępy. Jedną z nowości są **ekspresyjne awatary**, które wykorzystują model EXPRESS-1 do realistycznego odwzorowania ludzkich emocji. Potrafią one dostosować ton głosu, mowę ciała i synchronizację ust do kontekstu wypowiedzi, generując unikalne występy i znacznie rozszerzając zakres ekspresji.
Kolejną innowacją są **personalne awatary AI**, dzięki którym możesz w ciągu kilku minut stworzyć własnego “cyfrowego bliźniaka”. Masz do wyboru dwie opcje: ekspresyjny awatar nagrany w profesjonalnym studiu lub niestandardowy awatar z naturalnym tłem, stworzony za pomocą kamery internetowej lub telefonu. Te awatary oferują ulepszoną synchronizację ust, bardziej naturalny głos oraz możliwość replikacji Twojego głosu w ponad 30 językach.
Dzięki **zaawansowanym możliwościom personalizacji** możesz określić wygląd swojego awatara za pomocą obrazów i filmów, a także tworzyć animacje wykorzystując sekwencje szkieletowe. **Awatary pełnopostaciowe** z rozszerzonym zakresem ruchów, w tym gestykulacją rąk, dodają prezentacjom jeszcze więcej realizmu.
Choć Synthesia nie oferuje jeszcze awatara zdolnego w pełni zastąpić użytkownika podczas interaktywnych spotkań, ich technologia dynamicznie się rozwija w tym kierunku. Firma kładzie duży nacisk na odpowiedzialne rozwijanie sztucznej inteligencji, zwracając uwagę na potencjalne zagrożenia związane z dezinformacją. Możemy więc oczekiwać, że w niedalekiej przyszłości Synthesia zaprezentuje jeszcze bardziej realistyczne i ekspresyjne awatary AI, otwierając nowe możliwości w komunikacji i prezentacji.
Meta, wcześniej znana jako Facebook, wprowadziła nowy, innowacyjny model do śledzenia punktów w wideo o nazwie **CoTracker3**. Ten zaawansowany model upraszcza architekturę w porównaniu do poprzednich wersji, co sprawia, że jest prostszy i często mniejszy. Wykorzystuje prostszy wielowarstwowy perceptron (MLP) do przetwarzania cech korelacji 4D zamiast bardziej skomplikowanych modułów.
CoTracker3 osiąga imponujące wyniki przy użyciu aż **1000 razy mniej danych treningowych** niż wcześniejsze modele! Zamiast milionów filmów, potrzebuje jedynie **15 000 rzeczywistych nagrań** do treningu. Dzięki zastosowaniu semi-nadzorowanego uczenia, model korzysta z pseudo-etykietowania na nieanotowanych filmach, wykorzystując istniejące trackery jako “nauczycieli”.
Nowy model oferuje dwa tryby działania: **online**, do przetwarzania w czasie rzeczywistym, oraz **offline**, zapewniający dokładniejsze śledzenie punktów, szczególnie podczas długotrwałych okluzji. CoTracker3 potrafi jednocześnie śledzić wiele punktów, co pozwala lepiej radzić sobie z zakryciami obiektów. Co więcej, działa o **27% szybciej** niż poprzedni najszybszy tracker punktów, LocoTrack.
Ten przełomowy model może znaleźć zastosowanie w wielu dziedzinach, takich jak edycja wideo i efekty specjalne, rekonstrukcja 3D, robotyka czy stabilizacja obrazu wideo. Choć CoTracker3 wprowadza znaczące ulepszenia, nadal ma pewne ograniczenia, na przykład trudności w śledzeniu punktów na powierzchniach bez wyraźnych cech, takich jak niebo czy woda.
Podsumowując, **CoTracker3** to ważny krok naprzód w dziedzinie śledzenia punktów w wideo, oferujący lepszą wydajność przy znacznie mniejszym zapotrzebowaniu na dane treningowe. Może on znacząco usprawnić pracę profesjonalistów zajmujących się edycją wideo i efektami specjalnymi, umożliwiając dokładniejsze i bardziej efektywne śledzenie elementów w filmach.
Model **Llama 3.1 Nemotron 70B Instruct** to najnowsze osiągnięcie w dziedzinie sztucznej inteligencji, opracowane przez firmę NVIDIA we współpracy z Meta (dawniej Facebook). Nie jest to model open-source, lecz zamknięty i dostępny komercyjnie, co podkreśla jego zaawansowanie technologiczne. Warto zaznaczyć, że poprawna nazwa tego modelu to **”Nemotron”**, a nie “Neotron”.
Opracowany na bazie architektury Llama 3.1 stworzonej przez Meta, model ten osiąga imponujące wyniki w kluczowych benchmarkach:
– Arena Hard: 85.0
– AlpacaEval 2 LC: 57.6
– GPT-4-Turbo MT-Benc*: 8.98
Na dzień 1 października 2024 roku, Llama 3.1 Nemotron 70B Instruct zajmował pierwsze miejsce w trzech automatycznych benchmarkach dotyczących dostosowania (alignment), wyprzedzając nawet takie modele jak GPT-4 i Claude 3.5 Sonnet. Model został wytrenowany przy użyciu techniki RLHF (Reinforcement Learning from Human Feedback), a konkretnie algorytmu REINFORCE. Dzięki temu jest w stanie generować precyzyjne i użyteczne odpowiedzi na różnorodne zapytania użytkowników.
Chociaż model ten osiąga imponujące wyniki, warto pamiętać, że różne modele mogą wyróżniać się w różnych zastosowaniach. Llama 3.1 Nemotron 70B Instruct pokazuje jednak, że konkurencja w dziedzinie AI staje się coraz bardziej zacięta, a różnice między modelami różnych firm zaczynają się zacierać. To potężne narzędzie w świecie sztucznej inteligencji, które mimo że nie jest open-source, stanowi kolejny krok naprzód w rozwoju zaawansowanych modeli komercyjnych na rynku AI.
OpenAI udostępniło aplikację desktopową ChatGPT dla systemu Windows, co jest świetną wiadomością dla użytkowników tego systemu. Obecnie aplikacja jest dostępna dla posiadaczy płatnych planów, takich jak ChatGPT Plus, Team, Enterprise oraz Edu. Możesz ją pobrać bezpośrednio z Microsoft Store lub ze strony OpenAI pod adresem [openai.com/chatgpt/download/](<http://openai.com/chatgpt/download/>). Wymagania systemowe są niewielkie—wystarczy Windows 10 w wersji 17763.0 lub nowszej.
Aplikacja oferuje kilka kluczowych funkcji, które ułatwiają korzystanie z ChatGPT. Dzięki skrótowi klawiaturowemu Alt+Space możesz błyskawicznie otworzyć okno aplikacji. Istnieje również okno towarzyszące, które pozwala korzystać z ChatGPT obok innych otwartych programów. Dodatkowo, aplikacja umożliwia przesyłanie i analizowanie plików oraz zdjęć, a także płynnie integruje się z innymi zadaniami wykonywanymi na komputerze.
Warto jednak zauważyć, że obecna wersja ma pewne ograniczenia, takie jak brak standardowych i zaawansowanych funkcji głosowych czy brak możliwości uwierzytelniania w Google Drive i Microsoft OneDrive dla Context Connectors. OpenAI zapowiada jednak, że pełna wersja aplikacji, zawierająca wszystkie funkcje dostępne w wersji webowej i na macOS, zostanie udostępniona później w tym roku. Planowane jest również rozszerzenie dostępu do aplikacji dla wszystkich użytkowników, nie tylko tych z płatnymi planami.
To ważny krok w kierunku lepszej integracji ChatGPT z codzienną pracą na komputerach z systemem Windows, który z pewnością ucieszy wielu użytkowników!
Perplexity właśnie wprowadziło dwie nowe, ekscytujące funkcje: Wewnętrzne Wyszukiwanie Wiedzy oraz Spaces. Dzięki Wewnętrznemu Wyszukiwaniu Wiedzy, dostępnemu dla użytkowników Perplexity Pro i Enterprise Pro, możesz teraz przeszukiwać nie tylko publiczne treści internetowe, ale także własne wewnętrzne bazy wiedzy. To oznacza szybszy i bardziej efektywny dostęp do potrzebnych informacji, łącząc zewnętrzne i wewnętrzne źródła w jednym miejscu.
Z kolei Perplexity Spaces to AI-wspomagane huby współpracy, które możesz dostosować do swoich indywidualnych potrzeb. Możesz zapraszać współpracowników, łączyć do 50 własnych plików w każdej przestrzeni oraz personalizować asystenta AI, wybierając preferowany model i ustawiając własne instrukcje. To idealne rozwiązanie dla zespołów projektowych, działów sprzedaży czy grup studenckich pracujących nad wspólnymi projektami. Spaces zapewnia pełną kontrolę dostępu do badań i plików, gwarantując prywatność w obrębie zespołu. Dodatkowo, dzięki integracji z Perplexity Pages, możesz łatwo przekształcać wyniki badań w publikowalne treści.
Te innowacje znacząco zwiększają możliwości personalizacji i efektywności pracy z Perplexity, umożliwiając tworzenie bardziej kontekstowych i spersonalizowanych przestrzeni badawczych. Dla klientów Enterprise Pro wszystkie pliki i wyszukiwania są domyślnie wyłączone z treningu AI, a użytkownicy Pro mogą z tego zrezygnować w ustawieniach. W planach jest także dodanie integracji z zewnętrznymi bazami danych, takimi jak Crunchbase i FactSet, co dodatkowo rozszerzy funkcjonalność dla klientów Enterprise Pro.
Google wprowadziło znaczące ulepszenia do funkcji Audio Overview w NotebookLM, dodając możliwość personalizacji generowanych podcastów! Teraz, przed wygenerowaniem podcastu, użytkownicy mogą kliknąć przycisk “Customize“, aby dostosować treść i styl nagrania. Dzięki temu można podać sztucznej inteligencji konkretne instrukcje, skupić się na wybranych tematach lub dostosować poziom szczegółowości do docelowej grupy odbiorców. Google porównuje tę funkcję do “przekazania krótkiej notatki prowadzącym AI tuż przed wejściem na antenę”, co sprawia, że tworzenie spersonalizowanych treści jest jeszcze prostsze i bardziej intuicyjne.
Dodatkowo, użytkownicy mogą teraz słuchać Audio Overview w tle podczas pracy w NotebookLM, przeglądając źródła i eksplorując istotne fragmenty bez przerywania odtwarzania. Co więcej, usunięto etykietę *Experimental” z NotebookLM, co oznacza, że produkt jest teraz bardziej dojrzały i stabilny. Te nowe funkcje znacznie zwiększają użyteczność Audio Overview, umożliwiając tworzenie bardziej spersonalizowanych i ukierunkowanych podcastów na podstawie własnych materiałów. To kolejny krok Google w kierunku demokratyzacji tworzenia treści audio z wykorzystaniem sztucznej inteligencji!
Dropbox wprowadził właśnie na rynek nowe narzędzie o nazwie Dash for Business—zaawansowane rozwiązanie do uniwersalnego wyszukiwania, zasilane sztuczną inteligencją. Dzięki niemu możesz przeszukiwać treści z różnych aplikacji w jednym miejscu, takich jak Dropbox, Google Drive, OneDrive, Notion czy Asana. Wykorzystując AI, Dash for Business poprawia wyniki wyszukiwania i dostarcza odpowiedzi w czasie rzeczywistym. Integruje się z wieloma popularnymi narzędziami biznesowymi, co umożliwia centralne zarządzanie informacjami. Dodatkowo oferuje funkcje takie jak zadawanie pytań i generowanie podsumowań treści bez konieczności otwierania plików, tworzenie i udostępnianie zorganizowanych kolekcji za pomocą Stacks oraz zaawansowane uprawnienia dostępu, zapewniające bezpieczną współpracę wewnętrzną i zewnętrzną. Obecnie dostępne w USA w języku angielskim na platformach internetowych i desktopowych, Dash for Business to odpowiedź Dropbox na rosnące zapotrzebowanie na efektywne narzędzia do zarządzania informacjami w środowisku pracy, gdzie dane są rozproszone między wieloma aplikacjami i platformami. Narzędzie to ma na celu znaczące zwiększenie produktywności zespołów poprzez uproszczenie procesu wyszukiwania i organizacji danych. Planowane jest rozszerzenie dostępności na inne rynki na początku 2025 roku.
Amazon Ads wprowadziło właśnie nowe narzędzia wykorzystujące sztuczną inteligencję, które mają pomóc reklamodawcom w tworzeniu bardziej atrakcyjnych materiałów reklamowych. Pierwszym z nich jest Video Generator, który korzysta z generatywnej AI do tworzenia reklam wideo. Dzięki niemu można w ciągu kilku minut stworzyć bogate wizualnie treści, używając jedynie pojedynczego zdjęcia produktu. Co więcej, narzędzie to jest dostępne bez dodatkowych kosztów dla reklamodawców korzystających z kampanii Sponsored Brands. Drugim narzędziem jest Live Image, nowa funkcja w ramach istniejącego Image Generatora. Pozwala ona na tworzenie krótkich, animowanych obrazów kampanii, umożliwiając dodawanie efektów, takich jak para unosząca się znad filiżanki kawy.
Te innowacje przynoszą wiele korzyści dla reklamodawców: oszczędzają czas i koszty przy tworzeniu materiałów wideo, czynią reklamy wideo bardziej dostępnymi dla małych i średnich firm oraz umożliwiają tworzenie atrakcyjnych wizualnie reklam bez specjalistycznej wiedzy. Obecnie Video Generator jest w fazie beta, a Amazon planuje dostosowywać technologię na podstawie opinii użytkowników. Wprowadzenie tych narzędzi jest odpowiedzią na rosnące zapotrzebowanie na treści wideo—aż 89% konsumentów chce więcej wideo od marek w 2024 roku. Rozwiązują one również problemy z czasem i kosztami, które często są głównymi barierami w marketingu wideo. To pokazuje, że Amazon intensywnie inwestuje w technologie generatywnej AI, aby zwiększyć atrakcyjność swojej platformy reklamowej i pomóc reklamodawcom w tworzeniu bardziej angażujących treści.
Apple wprowadziło na rynek nowego iPada mini, który został stworzony z myślą o wykorzystaniu najnowszych funkcji Apple Intelligence. Ten kompaktowy tablet wyposażony jest w potężny procesor A17 Pro, który oferuje aż o 30% szybsze działanie CPU oraz o 25% lepszą wydajność GPU w porównaniu do poprzedniego modelu. Dzięki temu iPad mini jest gotowy na przyszłe innowacje w zakresie sztucznej inteligencji. Użytkownicy docenią również 8,3-calowy wyświetlacz Liquid Retina oraz nową paletę kolorów, w tym niebieski i fioletowy, oprócz klasycznej księżycowej poświaty i gwiezdnej szarości. Aparat szerokokątny 12 MP z Inteligentnym HDR umożliwia doskonałe zdjęcia, a funkcja skanowania dokumentów wykorzystuje zaawansowane uczenie maszynowe. Nowy model wspiera Wi-Fi 6E, oferując szybsze połączenia bezprzewodowe, oraz port USB-C z dwukrotnie szybszą komunikacją przewodową. Miłośnicy akcesoriów docenią kompatybilność z Apple Pencil Pro, co zwiększa wszechstronność urządzenia. Podstawowa wersja iPada mini oferuje teraz 128 GB pamięci, co stanowi podwójną pojemność w porównaniu do poprzedniej generacji. Cena zaczyna się od 2599 zł za model Wi-Fi oraz 3399 zł za wersję Wi-Fi + Cellular. Nowy iPad mini jest przygotowany na integrację z Apple Intelligence, systemem AI firmy Apple, który ma na celu wzbogacenie codziennego użytkowania o zaawansowane funkcje, takie jak ulepszone narzędzia do pisania, streszczanie powiadomień, bardziej naturalna Siri oraz zaawansowana edycja obrazów. Wprowadzenie tego modelu pokazuje, że Apple nieustannie dąży do innowacji, przygotowując swoje urządzenia na przyszłość, w której sztuczna inteligencja będzie odgrywać kluczową rolę.
Emteq Labs zaprezentowało inteligentne okulary Sense, które śledzą emocje użytkownika w nowatorski sposób. Okulary te wyposażone są w dziewięć optycznych czujników OCO, które dokładnie analizują mimikę twarzy, nawyki żywieniowe, nastrój oraz aktywność fizyczną, osiągając imponującą dokładność pomiaru emocji na poziomie ponad 93%. Dzięki zaawansowanej sztucznej inteligencji Sense rejestruje aż 6000 punktów danych na sekundę, a ich technologia, inspirowana wzrokiem muchy, pozwala na znaczne zmniejszenie zużycia energii. Okulary Sense znajdują zastosowanie w monitorowaniu zdrowia psychicznego, śledzeniu nawyków żywieniowych poprzez wykrywanie ruchów żucia i rozpoznawanie pokarmów, a także mają potencjał w terapii i leczeniu otyłości. Planowane jest udostępnienie zestawu deweloperskiego w grudniu 2024 roku, jednak obecnie produkt jest skierowany głównie do partnerów komercyjnych, a nie do konsumentów indywidualnych. Emteq Labs dba o prywatność użytkowników, zapewniając pełną kontrolę nad danymi oraz możliwość ich udostępniania badaczom, trenerom czy lekarzom za zgodą użytkownika. Mimo że okulary Sense otwierają nowe możliwości w technologii wearable, koncentrując się na monitorowaniu wewnętrznych stanów użytkownika, ich wprowadzenie rodzi także pytania etyczne oraz obawy dotyczące prywatności i potencjalnego niewłaściwego wykorzystania danych.
Federal Trade Commission (FTC) ogłosiła finalną wersję zasady “Click to Cancel”, która ma na celu ułatwienie konsumentom anulowania subskrypcji i członkostw. Nowa zasada wprowadza kilka kluczowych zmian: firmy muszą zapewnić proces anulowania subskrypcji, który jest co najmniej tak prosty jak sama rejestracja, a anulowanie musi być możliwe przez ten sam kanał, z którego dokonano zapisu, na przykład online lub telefonicznie. Ponadto, zakazano wszelkich wprowadzających w błąd informacji związanych ze sprzedażą produktów lub usług w ramach subskrypcji, a także wprowadzono nowe wymogi dotyczące uzyskiwania osobnej zgody na subskrypcje. Większość przepisów wejdzie w życie 180 dni po ich opublikowaniu w Rejestrze Federalnym. Dla konsumentów zasada ta oznacza większą ochronę przed niechcianymi opłatami i zobowiązaniami, a także zwiększoną transparentność dzięki jasnemu ujawnianiu wszystkich istotnych informacji przed podaniem danych rozliczeniowych. FTC będzie mogła nakładać kary cywilne sięgające nawet 51 744 USD za naruszenia oraz żądać odszkodowań dla konsumentów. Dla firm oznacza to konieczność dostosowania praktyk subskrypcyjnych, co może wymagać znaczących zmian w systemach i procesach, a także spodziewanie się większej liczby działań egzekucyjnych ze strony FTC w tym obszarze. Podsumowując, zasada “Click to Cancel” stanowi istotny krok w ochronie praw konsumentów w erze cyfrowej, wymuszając na firmach większą transparentność i ułatwiając konsumentom kontrolę nad ich subskrypcjami.
Nowe technologie Adobe nie tylko przyspieszają proces twórczy, ale także otwierają nowe możliwości dla twórców treści wizualnych i audio.
Ciekawe co będzie w przyszłym !!!