Dokładność i błędy pomiarowe we współrzędnościowej technice pomiarowej

Raven Media

Współrzędnościowa technika pomiarowa jest obecnie jedną z bardziej uniwersalnych metod pomiaru. Szeroko stosuje się ją zarówno do kontroli wyprodukowanych elementów, jak i w wysoko wyspecjalizowanych ośrodkach badawczych. Wynika to przede wszystkim z bardzo małej niepewności pomiarowej towarzyszącej tego typu procesom.

Bardzo ważnym czynnikiem w pomiarach dokonywanych techniką współrzędnościową, o znaczącym wpływie na końcowe wyniki, są błędy pomiarowe i źródła ich pochodzenia. Na rys. 1 pokazano, jakie źródła błędów, zależne nie tylko od maszyny, wpływają na wynik pomiaru. Pochodzenie źródeł błędów podzielono na pięć grup. Zalicza się do nich: maszynę pomiarową, środowisko, czyli czynniki zewnętrzne, właściwości badanego materiału, umiejętności operatora oraz – co często nie jest brane pod uwagę – strategię pomiarową. Znajomość pochodzenia źródeł błędów jest niezbędna do tego, by wyeliminować powstałe nieprawidłowości.

 

Dokładność i błędy pomiarowe we współrzędnościowej technice pomiarowej zdjęcie w treści artykułu

Rys. 1. Źródła błędów we współrzędnościowej technice pomiarowej

Niedokładności maszyn
Producenci maszyn pomiarowych w większości podają ogólną wartość niedokładności, jaka charakteryzuje cały zespół pomiarowy. Stowarzyszenie inżynierów niemieckich (VDI – Verein Deutscher Ingenieure) opracowało wytyczne pozwalające na wyznaczenie niedokładności maszyn pomiarowych. W opracowaniu przedstawiono metody analityczne, za pomocą których można wyznaczyć odchyłki prostoliniowości i prostopadłości, błędy geometryczne i niedokładności pomiaru długości. Wadą tej metody są jednak uproszczenia i niezgodności z planem pomiarów.

Maszyna pomiarowa powinna być analizowana jako jednolity system, składający się z zależnych od siebie elementów wpływających na występujące błędy pomiarowe. Sprawdzanie dokładności urządzenia pomiarowego w wielu przypadkach ma miejsce jedynie podczas instalacji nowego urządzenia lub w razie podejrzeń o wadliwym działaniu któregoś z zespołów. Takie podejście może w przyszłości skutkować błędnymi wynikami pomiarowymi. Również przyjęcie przez cały okres eksploatowania maszyny tej samej dokładności pomiarowej, którą producent wyznaczył dla nowej maszyny, i niewykonywanie okresowych kontroli w celu zapewnienia prawidłowego funkcjonowania maszyny może generować błędy.

W zasadzie można wyodrębnić dwa cele, dla których bada się urządzenia pomiarowe. Pierwszy to wyznaczenie źródła pochodzenia błędów, aby je usunąć i sprawdzić poprawność działania maszyny. Drugi cel to bardzo szczegółowe badanie maszyny umożliwiające określenie jej stanu rzeczywistego. Na podstawie tego, uwzględniając stan i możliwości maszyny, ustala się strategię pomiarową czy też plany związane z konkretnym cyklem pomiarowym.

Ocena dokładności pomiaru
Określenie dokładności pomiaru nie jest zadaniem łatwym, a często wręcz nie da się jej określić jednoznacznie, stąd zarówno producenci, jak i osoby świadczące tego typu usługi omijają problem, podając tylko dokładność danej maszyny pomiarowej. Skutkiem takich działań są odchylenia od wartości rzeczywistych. W celu zapobiegania tego typu praktykom od instytutów badawczych wymaga się dokumentacji, która zawiera nie tylko podstawowe dane załączone przez producenta, ale też wskazanie dokładności, z jaką przeprowadzane są pomiary.

Do oceny dokładności pomiarowej stosuje się trzy podstawowe metody

1. Wykorzystanie wykalibrowanego elementu wzorcowego
Pierwsza metoda, wynikająca z norm ISO 9000, opiera się na precyzyjnych wytycznych dotyczących kontroli maszyny i nadzoru nad jej pracą. Polegają na sprawdzaniu dokładności z wykorzystaniem elementów wzorcowych, które zostały wykalibrowane (najlepiej jeżeli wzorzec ma nieskomplikowany kształt). Działania takie mają służyć maksymalnemu ułatwieniu pomiaru. Istota tej metody polega na nieidentyfikowaniu się z przyczynami powstałych błędów, lecz ocenie skutków dzięki zidentyfikowanym odchyłkom od wymiarów wzorcowych.

Schemat metody przedstawiono na rys. 2.

Dokładność i błędy pomiarowe we współrzędnościowej technice pomiarowej zdjęcie w treści artykułu

Rys. 2. Określenia dokładności pomiaru z zastosowaniem wykalibrowanego wzorca

Metoda ta jest łatwa w realizacji, dlatego znajduje szerokie zastosowanie. Co ważne, operator nie musi posiadać wiedzy na temat błędów maszyny mierzącej. Istotną kwestią jest tu zapewnienie bardzo zbliżonych warunków pomiarowych, dlatego w tym przypadku maszyna nie musi charakteryzować się dużą dokładnością, lecz powinna dysponować bardzo dużą powtarzalnością pomiarową. W praktyce jednak do zastosowania tej metody potrzebne są duże nakłady finansowe, pozwalające na zapewnienie jednolitych warunków pomiarowych. Z tego powodu na jej wykorzystanie mogą sobie pozwolić przede wszystkim wyspecjalizowane ośrodki badawcze.

2. Wykorzystanie wzorca niewykalibrowanego
Druga metoda ma na celu oszacowanie niepewności pomiaru i polega na zastosowaniu do pomiaru przedmiotu, który nie został wykalibrowany. Zadaniem maszyny pomiarowej jest wielokrotne powtarzanie cyklu pomiarowego w czterech orientacjach. Dąży się do tego, aby wyznaczyć: niepewność, przy jakiej następuje powtarzalność pomiaru, średnią dla wszystkich pomiarów w różnych orientacjach, wpływ czynników zewnętrznych, np. temperatury, oraz korekcje związaną z błędami długości.

Schemat metody przedstawiono na rys. 3.

Dokładność i błędy pomiarowe we współrzędnościowej technice pomiarowej zdjęcie w treści artykułu

Rys. 3. Określenia dokładności pomiaru z zastosowaniem niewykalibrowanego wzorca


3. Symulacja z wykorzystaniem wirtualnej współrzędnościowej maszyny pomiarowej
Ostatnia metoda opiera się na symulacji z wykorzystaniem wirtualnej współrzędnościowej maszyny pomiarowej. Podczas realizacji pomiaru na maszynie wykonywana jest wirtualna kopia wymiaru, który został zdefiniowany dokładnością pomiaru. Symulacja formułuje błędy maszyny pomiarowej i przedstawia metrologiczne zachowania urządzenia jak najbardziej zbliżone do rzeczywistych przebiegów pomiarowych. Pozwala to na zobrazowanie cyklów pomiarowych
i daje możliwość przeanalizowania krok po kroku warunków, które zostały spełnione (lub nie) podczas pomiarów. Skutkuje to wyeliminowaniem błędów, które w rzeczywistości mogłyby się pojawić. Do zalet tej metody należy zaliczyć jej uniwersalność – praktycznie nie ma żadnych ograniczeń związanych z modelowaniem zachowań metrologicznych.

Opisywane metody szacowania dokładności pomiaru poprzedzone były długoletnimi badaniami. Jak wiadomo, nie ma uniwersalnej i najlepszej metody do oceny niepewności pomiarowych. Przy jej wyborze należy uwzględnić przede wszystkich to, jaki cel chce się osiągnąć i przy jakich nakładach.

LITERATURA
[1] Gawlik J. i in., Metrologia współrzędnościowa w inżynierii produkcji – dokładność pomiaru a dokładność wytwarzania, „Inżynieria Maszyn” z. 3/2010.
[2] Ratajczyk E., Współrzędnościowa technika pomiarowa, Warszawa 2005.
[3] Sładek J., Modelowanie i ocena dokładności maszyn oraz pomiarów współrzędnościowych, Kraków 2001.
[4] Sładek J., Krawczyk M., Dokładność maszyn i pomiarów współrzędnościowych – metody wyznaczania niepewności pomiaru, „Pomiary, Automatyka, Kontrola” nr 12/2005.

 

O Autorze

Dr hab. inż. Maciej Matuszewski, prof. UTP,  jest pracownikiem Katedry Eksploatacji Maszyn i Transportu na Uniwersytecie Technologiczno-Przyrodniczym w Bydgoszczy

Tagi artykułu

MM Magazyn Przemysłowy 4/2024

Chcesz otrzymać nasze czasopismo?

Zamów prenumeratę