Alicja Kozłowska · Brand24 — AI Adoption Manager · Zadanie rekrutacyjne

Niewidoczny system wiedzy —
jak Brand24 przestanie tracić
to, co wie

One-pager · Zarządzanie wiedzą w dobie AI
Alicja Kozłowska studio@alicjakozlowska.com
+48 795 102 595
linkedin.com/in/alicja-kozlowska
Problem
~400h miesięcznie traconych na szukanie wiedzy
Rozwiązanie
AI zapisuje decyzje ze Slacka i spotkań automatycznie
Efekt
-40% pytań, decyzje w 10 sek zamiast 15 min
Timeline
MVP w 14 dni, pełny system w 6 tygodni

Brand24 słucha tego, co świat mówi o markach klientów.
Ten system sprawi, że Brand24 zacznie słuchać samego siebie.

Dlaczego to jest krytyczne teraz — ROI problemu
🎯 Dlaczego teraz dla Brand24: szybki wzrost, komunikacja oparta o Slack i rosnąca złożoność decyzji → idealny moment na system, który porządkuje wiedzę bez zmiany zachowań zespołu.
Scaling team
Bez systemu wiedzy złożoność decyzji rośnie wykładniczo — nie liniowo — wraz z każdym nowym pracownikiem.
Slack-heavy org
Wiedza już istnieje w komunikacji Brand24 — system jej nie tworzy, tylko strukturyzuje to, co już jest.
Product company
Decyzje produktowe mają długofalowe konsekwencje — brak ich dokumentacji spowalnia velocity i tworzy tech debt decyzyjny.
30%
dnia roboczego tracą pracownicy na szukanie informacji
IDC, 2023
47%
czasu specjalistów pochłania wyszukiwanie wiedzy wewnętrznej
Gartner, 2024
20–25%
wzrost produktywności przy dobrym systemie KM
McKinsey, 2024
110h
rocznie oszczędza użytkownik dzięki AI KM
Forrester/Glean, 2024
Dla Brand24 (50+ pracowników): przy 2h dziennie traconego czasu — to ~100h tygodniowo (≈ 2,5 etatu), czyli ponad 400h miesięcznie gotowej mocy przerobowej do odzyskania. IDC szacuje, że firmy Fortune 500 tracą 31,5 mld USD rocznie z powodu złego zarządzania wiedzą. Nawet 10% odzyskanego czasu (~40h/miesiąc) już pokrywa koszt systemu.
Diagnoza — prawdziwy problem
Brand24 nie traci wiedzy przez brak narzędzi — traci ją dlatego, że ludzie nie mają czasu ani motywacji, żeby ją zapisywać. Notion, Confluence, wiki — to martwe repozytoria, których nikt nie aktualizuje. Prawdziwa wiedza żyje w Slacku i w głowach ludzi. System działa na istniejących zachowaniach zespołu — nie wymaga żadnej zmiany nawyków.
Przed — dziś
Pytanie na Slacku: "Dlaczego wybraliśmy X?"
10 osób odpowiada, każda inaczej
Brak kontekstu, brak źródła decyzji
Spotkanie żeby ustalić "co ustaliliśmy"
~15–30 minut stracone. Ponownie.
Po — system w akcji
To samo pytanie na Slacku
1 odpowiedź bota w 10 sekund + źródło
Link do oryginalnej decyzji + kontekst
Confidence score + opcja "zweryfikuj"
Minimalny input od zespołu — system działa głównie na istniejącej komunikacji (Slack, meetings), z walidacją tylko dla decyzji strategicznych.
Knowledge schema — co dokładnie zbiera AI (serce systemu)
Bez tego AI jest tylko wyszukiwarką. Z tym — rozumie decyzje. To różnica między RAG a decision intelligence.
Example knowledge record
Decision: Change pricing for plan Individual
Date: 2025-03-12
Owner: Head of Product
Context: churn increase in SMB segment
Alternatives considered: discount vs feature limitation
Source: slack://channel/product → thread_id_123
Confidence: 0.82
1
Czy w tej rozmowie zapadła decyzja?
Jeśli tak — kto ją podjął, kiedy i w jakim kontekście? Jakie alternatywy były rozpatrywane?
4
Czy ta informacja jest zgodna z tym, co już wiemy?
Czy istnieje coś, co jej przeczy? Jeśli tak — alert do weryfikacji przez człowieka.
2
Na jakie pytanie biznesowe ta rozmowa jest odpowiedzią?
Buduje indeks pytań — wyszukiwanie semantyczne działa na pytaniach, nie słowach kluczowych.
5
Jaki jest poziom ważności tej wiedzy?
Strategiczna / Operacyjna / Archiwalna. Decyduje o priorytecie i trybie walidacji.
3
Do jakiego obszaru organizacji należy ta wiedza?
Auto-tagowanie: Marketing / Product / CS / Data / HR / Tech / Sales.
6
Czy ta wiedza traci aktualność z czasem?
Ceny, regulaminy, polityki — auto-alert "wymaga weryfikacji" po określonym czasie.
Human-in-the-loop — governance, nie naiwna automatyzacja
Strategiczne decyzje wpływające na pricing, roadmapę lub klientów enterprise → AI proponuje, człowiek zatwierdza.  Operacyjne → pełna automatyzacja.  Archiwalne → pełna automatyzacja. Jeśli confidence score < ustalonego progu (np. 0.7) → wymagana weryfikacja przez człowieka. System uczy się na feedbacku użytkowników (np. "incorrect answer", "missing context") — iteracyjnie poprawia jakość klasyfikacji i odpowiedzi.
Architektura systemu — przepływ danych z human-in-the-loop
Architektura jest vendor-agnostic — narzędzia (LLM, vector DB) mogą być wymienione bez zmiany logiki systemu. To nie jest najprostszy możliwy stack — to najprostszy, który skaluje się bez przebudowy za 3 miesiące.
WARSTWA 1 — AUTOMATYCZNE ZBIERANIE Slack wiadomości, decyzje Whisper transkrypcja spotkań Jira / Confluence dokumenty, tickety HubSpot / Notion CRM, bazy wiedzy WARSTWA 2 — HYBRYDOWY AI BRAIN Knowledge schema 6 promptów filtrujących Własne modele NLP klasyfikacja, embeddings Claude / GPT via AWS Bedrock EU złożone zapytania · zero transferu poza UE Klasyfikacja wiedzy strategiczna operacyjna archiwalna 👤 Człowiek zatwierdza lub odrzuca zapis pricing · roadmapa · enterprise Auto-zapis pełna automatyzacja bez angażowania zespołu Auto-zapis pełna automatyzacja bez angażowania zespołu Baza wiedzy — Vector DB (Qdrant) WARSTWA 3 — INTERFEJS PRACOWNIKA Slack bot (Q&A) Wyszukiwanie semantyczne Alerty o lukach wiedzy
MVP w 2 tygodnie → pełny system w 6 tygodni
MVP — tydzień 1–2 (wartość od dnia 14)
Slack API Whisper Prosty vector DB Slack bot Q&A
Dzień 14: Slack bot odpowiada na pytania takie jak "Dlaczego zmieniliśmy pricing w marcu?" lub "Jaki był powód decyzji o funkcji X?" — z linkiem do źródła.
System działa na istniejącej historii Slacka — brak potrzeby migracji danych. No behavior change required from the team.
💰 Koszt MVP: minimalny — istniejące dane ze Slacka + model pay-as-you-go (LLM).
Pełny system — tydzień 3–6 (skaluje)
Własne modele NLP Claude / GPT via AWS Bedrock EU Jira / Confluence / Notion / HubSpot Qdrant + n8n
Podejście hybrydowe (jak Semrush Breeze) — model znany i stosowany przez Brand24. Architektura vendor-agnostic — stack wymienialny bez przebudowy logiki.
Bezpieczeństwo i GDPR — enterprise-ready od pierwszego dnia
Zero wycieku danych poza UE — podejście hybrydowe jak Brand24 już stosuje
Własne modele (on-premise)
Klasyfikacja i analiza lokalnie. Dane wrażliwe nie opuszczają organizacji. Zgodność z GDPR art. 25. Ten model Brand24 stosuje już dla danych klientów.
LLM przez AWS Bedrock EU (Frankfurt)
Claude i GPT do zapytań konwersacyjnych. Zero transferu poza UE. Enterprise-ready od pierwszego dnia. Ten sam model co Semrush Breeze.
Metryki sukcesu — jak rozliczam wdrożenie
Owner systemu
AI Adoption Manager / Product Ops
Walidacja strategiczna
Heads of departments
Jakość systemu
Feedback loop + weekly audit
Powtarzalne pytania
Liczba pytań zadanych ponownie
cel: -40% w miesiąc 2
Czas odpowiedzi
Czas znalezienia decyzji
cel: 15 min → 10 sek
Onboarding
Samodzielność po 30 dniach
cel: -40% czasu wdrożenia
Adopcja bota
% zespołu używającego Slack bota
cel: 60%+ w miesiąc 3
Decyzje z kontekstem
% decyzji z linkiem do źródła historycznego
cel: 80%+ w miesiąc 2
Największe ryzyko i mitigacja
Ryzyko: niska jakość danych wejściowych (chaos Slack)
Problem
Slack zawiera szum — nieformalne rozmowy, żarty, nieaktualne informacje. Bez filtrowania AI będzie uczyć się na złych danych i generować błędne odpowiedzi. Garbage in, garbage out.
Mitigacja
Knowledge schema (6 promptów filtrujących) + human-in-the-loop dla decyzji strategicznych + confidence score przy każdej odpowiedzi bota.

Ryzyko wtórne: nadmierne poleganie na odpowiedziach AI → mitigacja: każda odpowiedź zawiera źródło, link do oryginalnej rozmowy.
To nie jest system zarządzania wiedzą — to warstwa decyzyjna organizacji (decision layer), która zapisuje dlaczego decyzje zostały podjęte, umożliwiając ich audyt, powtarzalność i optymalizację w czasie.
Brand24 listens to the market.
This system makes it remember.