Test 4 narzędzi AI do Excela: Copilot na ostatnim miejscu

Coraz więcej profesjonalistów sięga po sztuczną inteligencję, by usprawnić pracę w Excelu – od modelowania finansowego po wykrywanie błędów. Kenji, znany z kanału Kenji Explains, postanowił sprawdzić, które z czterech popularnych narzędzi AI faktycznie radzi sobie najlepiej. W swoim teście porównał Claude’a, Copilota, ChatGPT oraz Tracelight w pięciu konkretnych scenariuszach, oceniając szybkość, dokładność i jakość wyników. Wyniki pokazują wyraźne różnice w możliwościach poszczególnych systemów, a jeden z nich wypadł zdecydowanie najsłabiej.

Jak testowano narzędzia AI do Excela?

Kenji przygotował pięć zadań odzwierciedlających rzeczywiste wyzwania w pracy z arkuszami kalkulacyjnymi. Każde z nich wymagało innego zestawu umiejętności – od precyzyjnego wyodrębniania danych po zaawansowaną manipulację tabelami. Testowane systemy to Claude (Anthropic), Copilot (Microsoft), ChatGPT (OpenAI) oraz Tracelight – specjalistyczne narzędzie AI do analizy finansowej.

Scenariusz 1: Wyodrębnianie i analiza bilansu

Pierwsze zadanie polegało na zaimportowaniu bilansu z 92-stronicowego pliku PDF, obliczeniu wskaźników finansowych i przedstawieniu wyników w czytelnym formacie. Tracelight poradził sobie najlepiej – dostarczył bardzo dokładne obliczenia i profesjonalnie sformatowane wyniki. ChatGPT działał szybko, ale wymagał ręcznych poprawek z powodu drobnych błędów formatowania. Claude zapewnił solidną dokładność, jednak był wyraźnie wolniejszy od konkurencji. Copilot miał poważne problemy – nie był w stanie wygenerować wyników opartych na formułach, co wymagało znacznej interwencji użytkownika.

Scenariusz 2: Porównywanie plików Excela

W tym teście narzędzia miały znaleźć różnice między dwoma podobnymi plikami – typowe zadanie w audycie i walidacji danych. Tracelight ponownie wyszedł na prowadzenie dzięki wbudowanemu narzędziu do porównań, które dostarczało szczegółowych i zwięzłych podsumowań rozbieżności. Claude i ChatGPT oferowały użyteczne wyniki, ale brakowało im funkcji zestawienia obok siebie, co zmuszało użytkownika do dodatkowej interpretacji. Copilot wygenerował niekompletne i niejasne rezultaty, co potwierdziło jego ograniczenia funkcjonalne.

Analiza scenariuszowa i wykrywanie błędów

Scenariusz 3: Tworzenie analizy scenariuszowej

Trzecie zadanie wymagało stworzenia dynamicznego rachunku zysków i strat z rozwijanymi listami dla scenariuszy: optymistycznego, bazowego i pesymistycznego. Tracelight dostarczył najdokładniejsze i najbardziej konfigurowalne wyniki, umacniając swoją pozycję lidera. Claude przygotował wizualnie atrakcyjne rezultaty, ale oferował mniej opcji personalizacji niż Tracelight. ChatGPT był najszybszy, jednak nie zdołał stworzyć w pełni funkcjonalnego modelu – użytkownik musiał ręcznie kończyć pracę. Copilot wygenerował działający model, ale jego formatowanie było nieczytelne i nieestetyczne.

Scenariusz 4: Wykrywanie błędów w modelach finansowych

Czwarty test sprawdzał zdolność narzędzi do identyfikowania błędów w złożonym modelu finansowym składającym się z wielu zakładek. ChatGPT okazał się najszybszy i najdokładniejszy w wykrywaniu nieprawidłowości, ale miał poważny minus – wprowadzał zmiany bez zgody użytkownika, co może prowadzić do niepożądanych konsekwencji. Tracelight dostarczył szczegółowe zestawienie błędów, umożliwiając systematyczne rozwiązywanie problemów, jednak wymagał ręcznej nawigacji. Claude zidentyfikował błędy, ale jego interfejs był zagracony i mniej intuicyjny. Copilot ponownie nie zdołał wykonać zadania, co potwierdziło jego nieprzydatność w skomplikowanych modelach finansowych.

Manipulacja danymi i ogólne rankingi

Scenariusz 5: Manipulacja i analiza danych

Ostatnie zadanie obejmowało przetworzenie dużego zbioru danych, utworzenie tabel przestawnych oraz sformatowanie analizy z użyciem fragmentatorów i wyróżnień. Tracelight ponownie dostarczył najdokładniejsze i najbardziej kompletne wyniki, doskonale radząc sobie ze złożonymi operacjami na danych. Claude i ChatGPT napotkały problemy z formatowaniem i funkcjonalnością – choć oferowały użyteczne wyniki, wymagały dodatkowych poprawek. Copilot zmagał się z błędami i nie dostarczył pełnej analizy, co po raz kolejny uwidoczniło jego ograniczenia w zaawansowanych zadaniach.

Ostateczna klasyfikacja narzędzi AI do Excela

Po przeanalizowaniu wyników wszystkich pięciu scenariuszy, Kenji ustalił następujący ranking:

  • Tracelight – najdokładniejsze i najbardziej niezawodne narzędzie, szczególnie przydatne dla specjalistów z branży finansowej i konsultingowej. Specjalistyczne funkcje i precyzja czynią je najlepszym wyborem do złożonych zadań w Excelu.
  • ChatGPT – dobry wybór do szybkich, prostych zadań. Należy jednak liczyć się z okazjonalnymi błędami i problemami formatowania, które wymagają ręcznej korekty.
  • Claude – solidny performer z wysoką dokładnością, ale wolniejszy i mniej elastyczny. Sprawdzi się tam, gdzie czas nie jest kluczowy, a personalizacja nie jest priorytetem.
  • Copilot – najmniej efektywne narzędzie z częstymi problemami użyteczności i wydajności. Mimo integracji z Excelem, w większości scenariuszy zawodziło, co czyni go najmniej opłacalnym wyborem do wymagających zadań.

Wybór odpowiedniego narzędzia AI do pracy z Excelem zależy od konkretnych potrzeb. Jeśli priorytetem jest precyzja i zaawansowane funkcje, Tracelight okazuje się najbardziej niezawodny. ChatGPT sprawdzi się przy szybkich, prostych zadaniach, a Claude oferuje balans między dokładnością a funkcjonalnością. Copilot natomiast, pomimo swojej dostępności w ekosystemie Microsoftu, nie dostarcza spójnych, wysokiej jakości wyników, co znacząco ogranicza jego przydatność w profesjonalnym środowisku.

Źródło