Jakie znaczenie ma fakt, że rozmawiamy z AI, a nie z człowiekiem? Czy zasada „zły brief = złe wyniki” działa tu tak samo jak w pracy z zespołem lub agencją?

Zasada „zły brief = zły wynik” działa tak samo w pracy z AI, jak i w pracy z zespołem lub agencją. Różnica nie tkwi w samej zasadzie, ale w liczbie dodatkowych zmiennych, które pojawiają się w pracy z ludźmi.
W relacji z zespołem lub agencją na efekt końcowy może mieć wpływ wiele czynników niezależnych od briefu: doświadczenie zespołu, presja czasu, kompromisy kreatywne, relacje interpersonalne czy ograniczenia organizacyjne. W efekcie, jeśli wynik jest niezadowalający, nie zawsze mamy pewność, czy problemem był brief, czy coś wydarzyło się po drodze.
Praca z AI redukuje te zmienne niemal do zera. AI:

  • nie negocjuje znaczeń,
  • nie „domyśla się intencji” poza tym, co zostało podane,
  • nie kompensuje braków briefu doświadczeniem ani intuicją.

Dzięki temu działa jak czyste lustro jakości briefu. Jeśli wynik jest rozmyty lub niespójny, z bardzo dużym prawdopodobieństwem oznacza to, że brief zawierał luki, niejednoznaczności lub nie podjęte decyzje.

Właśnie dlatego opracowałam narzędzia takie jak Clarity Score, Reverse Brief 2.0 i pętlę BOEC – nie po to, żeby „briefować AI”, ale żeby testować same briefy w warunkach maksymalnie ograniczonej liczby zmiennych.

Jeśli brief przechodzi taki test i mimo to pojawiają się problemy w pracy z zespołem lub agencją, łatwiej jest wtedy szukać przyczyn w innych obszarach procesu, a nie w samym zadaniu wyjściowym.

Jak odróżnić sytuację, w której AI faktycznie ujawnia lukę w briefie, od tej, w której po prostu nie rozumie kontekstu?

W praktyce granica między sytuacją, w której AI ujawnia lukę w briefie, a tą, w której „nie rozumie kontekstu”, jest rzeczywiście cienka – ale da się ją rozróżnić, jeśli patrzymy na sposób, w jaki AI pracuje na dostarczonym materiale.

Jeśli brief jest kompletny i jednoznaczny, AI – nawet jeśli popełnia uproszczenia – konsekwentnie trzyma się tych samych założeń w kolejnych odpowiedziach. Interpretacje mogą być różne stylistycznie, ale ich logika pozostaje spójna. Natomiast jeśli odpowiedzi AI zaczynają się wyraźnie rozjeżdżać, opierać na różnych domysłach lub każdorazowo „dowyjaśniać” coś inaczej, jest to silny sygnał, że brief pozostawia zbyt dużą przestrzeń interpretacyjną.

Warto też jasno powiedzieć: AI również próbuje uzupełniać brakujący kontekst. W jego przypadku przyjmuje to formę halucynowania – model wypełnia luki najbardziej prawdopodobnymi wzorcami, zamiast realnie „rozumieć” sytuację. To nie jest błąd w sensie technicznym, ale naturalna reakcja na niepełne dane wejściowe. Różnica polega na tym, że u AI to zjawisko jest łatwiejsze do zaobserwowania, bo prowadzi do niespójnych lub przypadkowych wyników.

Dlatego kluczowym kryterium rozróżnienia nie jest pytanie: „czy AI rozumie kontekst?”, tylko: czy kontekst został jednoznacznie zapisany w briefie w sposób, który ogranicza konieczność zgadywania. Jeśli AI musi zgadywać – i robi to na różne sposoby – oznacza to, że dokument nie zamyka wystarczająco jasno decyzji po stronie briefodawcy.

W tym sensie AI nie jest „zbyt głupie, by zrozumieć kontekst”, lecz działa jak detektor miejsc, w których brief zmusza odbiorcę do domysłów. Jeżeli po doprecyzowaniu tych miejsc odpowiedzi stają się stabilniejsze i bardziej spójne, mamy bardzo mocny dowód, że problemem była jakość wejścia, a nie samo narzędzie.

Czy możesz podać przykład dobrze napisanego promptu, którego celem jest weryfikacja lub „przetestowanie” briefu?

Tak – w prezentacji celowo pokazywałam konkretne przykłady promptów, które można bezpośrednio skopiować i wykorzystać w praktyce. Zależało mi na tym, żeby nie mówić o „testowaniu briefu” w sposób abstrakcyjny, tylko pokazać jak to wygląda operacyjnie.

Najważniejsze jest jednak nie samo brzmienie promptu, ale intencja, z jaką go używamy. W prezentacji wszystkie przykłady miały jeden wspólny cel: nie generować pomysłów ani rozwiązań, lecz sprawdzić, czy brief jest wystarczająco jednoznaczny, spójny i kompletny, żeby dało się na nim bezpiecznie pracować.

Pokazane przeze mnie narzędzia – Clarity Score, Reverse Brief 2.0 oraz pętla BOEC – są właśnie takimi „promptami testowymi”. Każdy z nich pozwala sprawdzić brief z innej strony: czy cele są jasno określone, czy założenia są spójne oraz ile różnych, uczciwych interpretacji dopuszcza dany dokument.

Dlatego zamiast jednego „idealnego promptu” zaproponowałam zestaw prostych schematów, które można stosować w zależności od tego, na jakim etapie pracy z briefem jesteśmy. Wszystkie przykłady, które pojawiły się na slajdach, były dobrane tak, aby dało się je łatwo powtórzyć i zaadaptować do własnych potrzeb.

Czy są określone typy promptów lub kategorie zapytań, z którymi AI radzi sobie wyraźnie gorzej – takich, których bez dużego doświadczenia użytkownika lepiej unikać?

Tak – w prezentacji celowo pokazywałam konkretne przykłady promptów, które można bezpośrednio skopiować i wykorzystać w praktyce. Zależało mi na tym, żeby nie mówić o „testowaniu briefu” w sposób abstrakcyjny, ale pokazać, jak wygląda to operacyjnie w realnej pracy.

Najważniejsze jest jednak nie samo brzmienie promptu, ale intencja, z jaką go używamy. Wszystkie przykłady, które pojawiły się w prezentacji, miały jeden wspólny cel: nie generować pomysłów ani gotowych rozwiązań, lecz zweryfikować jakość samego briefu – sprawdzić, czy jest wystarczająco jednoznaczny, spójny i kompletny, by dało się na nim bezpiecznie pracować.

Pokazane przeze mnie narzędzia – Clarity Score, Reverse Brief 2.0 oraz pętla BOEC – można traktować właśnie jako prompty testowe. Każde z nich sprawdza brief z innej perspektywy: czy cele są jasno określone, czy założenia są spójne oraz jak duży rozrzut interpretacyjny dopuszcza dany dokument. Dlatego zamiast jednego „idealnego promptu” zaproponowałam zestaw prostych schematów, które można stosować na różnych etapach pracy z briefem.

Warto też pamiętać o jeszcze jednej praktycznej zasadzie pracy z AI: modele językowe słabo reagują na prompty formułowane w sposób negatywny, typu „nie rób”, „nie pisz”, „unikaj”. Skupienie instrukcji na tym, czego AI ma unikać, często paradoksalnie pogarsza jakość odpowiedzi – model koncentruje się na zakazach zamiast na pożądanym kierunku. Zdecydowanie lepsze efekty daje pozytywne ukierunkowanie: jasne opisanie, jak ma pisać, jaką rolę przyjąć i jakie kryteria ma spełnić. To podejście jest szerzej opisane m.in. w AI Prompting Guide opublikowanym przez IAB Europe.

Dla osób, które chcą dalej rozwijać kompetencje promptowania – nie tylko w kontekście briefów – bardzo dobrym uzupełnieniem są także materiały przygotowane przez IAB Polska, w tym „Poradnik po sztucznej inteligencji 2.0”, zawierający obszerny rozdział poświęcony pracy z promptami oraz wiele przykładów do praktycznego wykorzystania.

Te materiały dobrze pokazują jedno: nie chodzi o znalezienie jednego „magicznego promptu”, ale o zrozumienie, jak formułować zapytania w zależności od celu, etapu pracy i rodzaju narzędzia. Dokładnie w tym samym duchu była zaprojektowana cała prezentacja.

Czy widzisz różnice w promptowaniu pomiędzy różnymi narzędziami AI?

Na początku warto doprecyzować jedną rzecz: to nie narzędzia „promptują”, tylko użytkownik formułuje prompt. Różnice, o które pytacie, dotyczą tego, jak różne narzędzia AI reagują na ten sam prompt – jak go interpretują, gdzie dopowiadają, a gdzie zachowują ostrożność.

Te różnice wynikają z dwóch rzeczy:
 (1) stopnia wyspecjalizowania narzędzia oraz
 (2) charakterystyki konkretnego modelu językowego.

Po pierwsze, mamy narzędzia wyspecjalizowane, projektowane pod określone zadania. Przykładowo:

  • Perplexity reaguje na prompty w sposób silnie researchowy: kotwiczy odpowiedzi w źródłach, rzadko „zgaduje”, częściej pokazuje brak danych niż je dopowiada.
  • NotebookLM bardzo literalnie reaguje na prompty w odniesieniu do dostarczonych materiałów – jasno oddziela to, co wynika ze źródeł, od interpretacji i dobrze radzi sobie z bardzo długim kontekstem dokumentów.
  • Narzędzia stricte wizualne, takie jak Midjourney czy Leonardo AI, reagują na prompty niemal wyłącznie na poziomie instrukcji wizualnej i estetycznej – nie są projektowane do pracy koncepcyjnej czy strategicznej.

Po drugie, nawet wśród uniwersalnych czatów AI reakcje na prompty wyraźnie się różnią:

  • ChatGPT jest bardzo wszechstronny i kreatywny, dobrze radzi sobie z długim kontekstem, ale ma skłonność do dopowiadania braków w briefie i częściej „zgaduje”, zamiast zaznaczać niepewność.
  • Claude jest bardziej analityczny i ostrożny: świetnie pracuje na bardzo długich dokumentach, rzadziej halucynuje, częściej dopytuje lub wyraźnie zaznacza, że dane nie wynikają z wejścia.
  • Gemini jest bardzo kreatywny i multimodalny, ale bywa mniej stabilny w utrzymaniu długiej historii kontekstu i ma tendencję do pewnego „nadinterpretowania” promptów.

Dlatego skuteczne promptowanie nie polega na znalezieniu jednej uniwersalnej formuły, tylko na świadomości, jak dane narzędzie reaguje na nieprecyzyjne, niepełne lub otwarte instrukcje. Ten sam prompt może ujawnić lukę w briefie w jednym narzędziu, a w innym zostać „wygładzony” przez nadmierne dopowiedzenia modelu.

W praktyce oznacza to, że kompetencja pracy z AI polega dziś nie tylko na pisaniu promptów, ale na doborze narzędzia do typu zadania oraz krytycznej interpretacji jego reakcji.

Czy zdarzało się, że dany typ promptu działał bardzo dobrze w jednym narzędziu, a w innym zupełnie się nie sprawdzał?

Tak – i zdarza się to bardzo często. Ten sam typ promptu może działać świetnie w jednym narzędziu, a w innym prowadzić do odpowiedzi płytkich, zbyt ogólnych lub nadmiernie uśrednionych.

Przykładowo, prompt analityczny oparty na źródłach może bardzo dobrze zadziałać w Perplexity, który jest zaprojektowany do pracy na aktualnych danych i cytowanych źródłach. Ten sam prompt użyty w uniwersalnym czacie AI często skutkuje odpowiedzią bardziej opisową i mniej zakotwiczoną w faktach. Z kolei prompt kreatywny, który w ChatGPT wygeneruje kilka sensownych kierunków koncepcyjnych, w NotebookLM po prostu się nie sprawdzi – nie dlatego, że jest „zły”, ale dlatego, że brakuje odpowiedniego materiału wejściowego, na którym to narzędzie jest zaprojektowane pracować.

To pokazuje, że prompt nie działa w próżni. Zawsze funkcjonuje w relacji z konkretnym modelem, jego architekturą, sposobem trenowania oraz projektowymi priorytetami narzędzia.

Co więcej, różnice w reakcji na prompty mogą występować nawet w ramach jednego narzędzia, wraz ze zmianą modelu. Dobrym przykładem jest ChatGPT, gdzie przejście między kolejnymi generacjami modeli (np. z wersji 4 na 5) było szeroko komentowane przez użytkowników. Wielu z nich zwracało uwagę, że nowszy model reagował bardziej dosłownie, rzadziej „domyślał się” braków w poleceniu i w mniejszym stopniu uzupełniał kontekst intuicyjnie. To pokazuje, że nawet przy niezmienionym promptowaniu zachowanie narzędzia może się istotnie zmienić.

Jednocześnie obserwujemy dziś zjawisko stopniowego upodabniania się modeli AI do siebie. Coraz więcej narzędzi korzysta z podobnych danych treningowych i podobnych rozwiązań technologicznych, co w dłuższej perspektywie może zmniejszać różnice między nimi. Dlatego tym ważniejsze staje się bieżące testowanie narzędzi i uważna obserwacja momentów, w których dany model zaczyna upraszczać problem lub „uśredniać” odpowiedzi.

W praktyce oznacza to, że kompetencja pracy z AI nie polega na perfekcyjnym promptowaniu jednego narzędzia, ale na świadomym doborze narzędzia i modelu do rodzaju problemu – oraz na ciągłym monitorowaniu, jak te narzędzia i ich zachowanie się zmieniają w czasie.

Czy istnieje realne ryzyko, że udostępniony brief może zostać w jakimś zakresie „wykorzystany” lub ujawniony innym użytkownikom?

Nie wprost – i to warto jasno powiedzieć. Nie istnieje mechanizm, który pozwalałby innemu użytkownikowi „wypromptować” briefy, dokumenty czy treści wprowadzone do AI przez konkurencję. Modele nie działają jak wyszukiwarka cudzych rozmów ani baza udostępnionych plików.

Jednocześnie trzeba mieć świadomość, że domyślny sposób działania wielu narzędzi AI zakłada wykorzystywanie interakcji użytkowników do dalszego trenowania lub ulepszania modeli (w różnym zakresie, zależnie od narzędzia i ustawień). Oznacza to, że choć konkretne dokumenty nie są dostępne „do podejrzenia”, to treści, które wprowadzamy, mogą pośrednio wpływać na rozwój modelu.

Dlatego przy pracy z briefami, danymi firmowymi czy materiałami strategicznymi warto przyjąć założenie, że AI jest narzędziem zewnętrznym, a nie prywatnym repozytorium wiedzy. Ryzyko nie polega na bezpośrednim „wycieku”, lecz na braku kontroli nad tym, jak dane są dalej wykorzystywane przez dostawcę narzędzia, jeśli nie zadbamy o odpowiednie ustawienia i praktyki.

Jak zabezpieczyć się przed tym, by AI „uczyło się” na naszych danych lub zapamiętywało konkretne przykłady? Czy stosujesz konkretne zapisy, formuły lub ustawienia (np. wyłączenie pamięci), które zwiększają bezpieczeństwo pracy z AI?

Podstawą jest świadome i konsekwentne podejście do bezpieczeństwa pracy z AI – podobne do tego, jakie stosujemy przy innych narzędziach chmurowych.

W praktyce oznacza to kilka prostych, ale bardzo skutecznych zasad:

Po pierwsze, korzystanie z ustawień prywatności, które ograniczają używanie danych do trenowania modeli – np. wyłączenie opcji typu „ulepsz model dla wszystkich”, jeśli jest dostępna w danym narzędziu.

Po drugie, anonimizowanie danych przed ich wprowadzeniem do AI: usuwanie nazw marek, klientów, nazw własnych, wyników finansowych czy innych identyfikowalnych elementów. W większości przypadków do testowania briefu czy struktury zadania nie są one w ogóle potrzebne.

Po trzecie, niewprowadzanie danych wrażliwych, poufnych lub prawnie chronionych – zwłaszcza takich, które nie powinny opuszczać infrastruktury organizacji niezależnie od narzędzia.

Po czwarte, korzystanie z płatnych lub korporacyjnych wersji narzędzi AI, które oferują wyższy poziom kontroli nad danymi, brak trenowania na treściach użytkownika lub dodatkowe zabezpieczenia umowne.

Warto podkreślić, że bezpieczeństwo pracy z AI nie polega na „zaufaniu modelowi”, ale na świadomym projektowaniu sposobu jego użycia. Przy zachowaniu podstawowych zasad higieny danych AI może być bezpiecznym wsparciem w pracy koncepcyjnej i strategicznej – bez ryzyka, że stanie się niekontrolowanym repozytorium wiedzy firmowej.

AI to potężne narzędzie, ale wiele zespołów marketingowych wykorzystuje je dziś głównie do najprostszych zadań. Jak nie stracić kreatywności i uniknąć wtórności kampanii?

Wykorzystywanie AI do prostych, powtarzalnych i czasochłonnych zadań uważam za dobry kierunek rozwoju dla branży kreatywnej, a nie zagrożenie. Automatyzacja researchu, porządkowania informacji, wariantowania egzekucji czy pracy operacyjnej może realnie odciążyć zespoły i uwolnić czas oraz energię na to, co w marketingu i komunikacji najcenniejsze – myślenie koncepcyjne, interpretację kulturową i pracę nad ideą.

Problem pojawia się nie wtedy, gdy AI przejmuje zadania techniczne, ale wtedy, gdy organizacje traktują AI wyłącznie jako narzędzie do redukcji kosztów, a nie jako sposób na podniesienie jakości pracy i atrakcyjności środowiska kreatywnego. Jeśli zaoszczędzony dzięki AI czas nie wraca do zespołów w postaci przestrzeni na eksplorację, eksperymentowanie i rozwój, kreatywność faktycznie zaczyna zanikać – niezależnie od tego, jak zaawansowane narzędzia są dostępne.

Aby uniknąć wtórności kampanii, kluczowe jest świadome rozdzielenie ról:

  • AI jako wsparcie procesu (research, porządkowanie, testowanie kierunków, przyspieszanie iteracji),
  • człowiek jako autor sensu (wybór perspektywy, interpretacja kontekstu, decyzje estetyczne i kulturowe).

Kreatywność nie zanika dlatego, że pojawia się AI. Zanika wtedy, gdy organizacje nie tworzą warunków, w których ludzie mogą z tej kreatywności realnie korzystać. Jeśli AI jest wdrażane jako narzędzie podnoszące jakość usług i kompetencji zespołów – a nie jako pretekst do przyspieszania i spłaszczania pracy – może paradoksalnie stać się jednym z najważniejszych sprzymierzeńców twórczego myślenia.

W tym sensie pytanie nie brzmi „czy używać AI”, ale jaką wizję pracy kreatywnej organizacja chce dzięki niemu wzmocnić.

Czy grozi nam sytuacja, w której agencje marketingowe – korzystając z tych samych narzędzi AI – będą proponowały bardzo podobne rozwiązania na bazie tego samego briefu? Jak się przed tym bronić?

Tak – takie ryzyko jest realne i już dziś można obserwować pierwsze sygnały tego zjawiska. Coraz częściej pojawiają się analizy pokazujące, że różne modele językowe zaczynają się do siebie upodabniać, ponieważ są trenowane na bardzo podobnych zbiorach danych i korzystają z podobnych architektur. Równolegle rośnie liczba treści tworzonych przez AI i publikowanych online, co rodzi długofalowe ryzyko tzw. „pętli uczenia się z własnych danych” – modeli, które w coraz większym stopniu uczą się na treściach wygenerowanych przez inne modele. W literaturze i dyskusjach branżowych pojawia się hipoteza, że może to prowadzić do stopniowego spadku jakości, zwłaszcza w obszarach wymagających świeżości, oryginalności i kreatywności.

W takim kontekście pytanie o podobieństwo rozwiązań nie jest abstrakcyjne – szczególnie jeśli agencje korzystają z tych samych narzędzi AI, pracując na bardzo podobnie skonstruowanych briefach.

To, jak sobie z tym ryzykiem radzić, zależy jednak od perspektywy.

Z perspektywy agencji marketingowych kluczowe jest, aby nie traktować AI jako substytutu pracy kreatywnej, lecz jako narzędzie wspierające ludzi. AI może znacząco usprawniać research, porządkować informacje, przyspieszać egzekucję, być sparing partnerem w burzach mózgów czy pomagać w weryfikowaniu kierunków strategicznych. Natomiast opieranie samego generowania idei i warstwy kreatywnej wyłącznie na AI prowadzi do spłaszczenia rozwiązań i zwiększa ryzyko ich ujednolicenia. Przewagą agencji pozostaje ludzka interpretacja kontekstu, kultury, niuansów społecznych i emocjonalnych – i to właśnie ten obszar powinien być świadomie chroniony.

Z perspektywy klienta rozwiązanie jest zaskakująco proste, choć wymaga konsekwencji. Jeśli oczekujemy różnorodnych, odważnych i jakościowych rozwiązań, powinniśmy to jasno komunikować: już na etapie briefu, w zapisach przetargowych, w kryteriach oceny oraz w samym feedbacku. Jeżeli w praktyce premiujemy głównie niską cenę, szybkość realizacji lub bezrefleksyjną „realizację zadania”, rynek agencji będzie się do tych oczekiwań dostosowywał – również poprzez coraz większą automatyzację. Jeśli natomiast realnie nagradzamy jakość kreatywną, różnorodność myślenia i wartość dodaną, agencje będą inwestować w ludzi i kompetencje, a nie tylko w narzędzia.

W tym sensie AI nie jest głównym zagrożeniem dla różnorodności rozwiązań. Zagrożeniem jest sposób, w jaki branża zdecyduje się z niego korzystać – oraz to, jakie zachowania klienci będą faktycznie wzmacniać swoimi decyzjami zakupowymi.

Czy wyspecjalizowane narzędzia AI (np. dedykowane konkretnym zadaniom) mogą być lepsze niż rozwiązania „od wszystkiego”, takie jak ChatGPT?

Tak – wyspecjalizowane narzędzia AI bardzo często są lepsze od rozwiązań „od wszystkiego”, ale tylko w zakresie zadań, do których zostały zaprojektowane. To nie jest wada uniwersalnych modeli, tylko naturalna konsekwencja specjalizacji.

Przykładowo:

  • narzędzia do transkrypcji, takie jak TurboScribe, zazwyczaj wykonają transkrypcję szybciej, dokładniej i z lepszym rozpoznaniem mowy niż uniwersalny chatbot – bo są trenowane i optymalizowane wyłącznie pod ten typ zadania;
  • narzędzia researchowe, takie jak Perplexity, lepiej sprawdzają się w wyszukiwaniu informacji, pracy na źródłach i weryfikacji faktów niż ogólne modele językowe, które z definicji nie są wyszukiwarkami.

Z kolei rozwiązania „od wszystkiego”, takie jak ChatGPT, mają inną przewagę: pozwalają łączyć różne typy zadań w jednym miejscu – analizę, porządkowanie myśli, testowanie briefów, generowanie wariantów czy pracę koncepcyjną. Są bardziej elastyczne, ale rzadko najlepsze w wąsko zdefiniowanych, technicznych zadaniach.

Dlatego w praktyce nie chodzi o wybór „albo–albo”, lecz o świadome budowanie ekosystemu narzędzi:

  • wyspecjalizowane AI do zadań technicznych i powtarzalnych,
  • uniwersalne modele językowe do pracy koncepcyjnej, strategicznej i integrującej różne perspektywy.

Największe problemy zaczynają się wtedy, gdy próbujemy używać jednego narzędzia do wszystkiego – albo gdy oczekujemy od AI kompetencji, których nigdy nie miało mieć. Skuteczna praca z AI polega dziś przede wszystkim na doborze narzędzia do problemu, a nie na szukaniu jednego „najlepszego” rozwiązania.

Jak AI radzi sobie z projektowaniem komunikacji do trudniejszych lub rzadziej uwzględnianych grup, np. Audience 65+?

AI nie powinno projektować komunikacji – zwłaszcza do trudniejszych lub rzadziej uwzględnianych grup, takich jak Audience 65+. To jest rola stratega, który rozumie kontekst społeczny, kulturowy, historyczny i emocjonalny danej grupy, a nie tylko jej cechy demograficzne.

AI może natomiast być bardzo użytecznym narzędziem wspierającym stratega, jeśli zostanie właściwie użyte. W przypadku grup takich jak 65+ dobrze sprawdza się m.in. w:

  • researchu raportów, badań i danych dotyczących tej grupy,
  • porządkowaniu wiedzy o istniejących kampaniach i sposobach komunikacji,
  • analizie języka, tonu i formatów, które były wcześniej stosowane – zarówno skutecznych, jak i problematycznych.

Jeśli natomiast oczekujemy od AI sugestii dotyczących rozwiązań komunikacyjnych, kluczowe znaczenie ma jakość danych wejściowych. AI nie „rozumie” grup społecznych samo z siebie – działa na zasadzie garbage in, garbage out. Jeśli pracuje na ogólnych, stereotypowych informacjach, będzie powielać uproszczenia. Jeśli jednak zostanie „nakarmione” rzetelną bazą wiedzy: raportami, insightami, przykładami realnych kampanii, może stać się wartościowym sparing partnerem również w pracy nad takimi grupami.

W praktyce oznacza to, że AI:

  • nie zastępuje strategii,
  • nie podejmuje decyzji komunikacyjnych,
  • ale może zwiększyć jakość przygotowania stratega do tej decyzji.

Im bardziej wymagająca i niestandardowa grupa docelowa, tym wyraźniej widać, że AI jest narzędziem pomocniczym – a nie autorem komunikacji. I dokładnie w tej roli najlepiej się sprawdza.

____________________

Iwona Tuźnik

Consumer Insights Manager for Western Europe w BAT 

Strateżka, badaczka i managerka z ponad 15-letnim doświadczeniem w marketingu. Łączy strategiczne myślenie z analitycznym podejściem, tworząc rekomendacje oparte na danych. Przez siedem lat rozwijała się w obszarze insightów i analityki, a kolejne osiem – w budowaniu strategie marek i komunikacji, współtworząc kampanie nagrodzone Effie. Pasja do analityki doprowadziła ją do studiów podyplomowych z Business Intelligence na SGH oraz dołączenia do Grupy Eksperckiej „AI w Badaniach” przy PTBRiO, gdzie bada wpływ AI na marketing, badania i procesy decyzyjne. Kompetencje managerskie rozwija, prowadząc zespoły i wspierając młode talenty jako mentorka w Biznesowym Indywidualnym Programie Studiów na Uniwersytecie Ekonomicznym we Wrocławiu oraz prowadząc gościnne zajęcia na uczelniach. Posiadaczka certyfikatu DIMAQ Professional.