PyGPT - asystent AI
: 09 listopada 2024, 16:56
Cześć!
Czy ktoś z Was słyszał kiedyś o PyGPT? To osobisty asystent SI. Ma otwarty kod i można go zainstalować m.in. przy pomocy Snapa.
Wygląda bardzo interesująco, ale zastanawiam się, jak z bezpieczeństwem takiego softu?
Mamy tutaj 2 wymiary:
1. Bezpieczeństwo samego softu
2. Bezpieczeństwo związane z integracją z zewnętrznymi softami, jak np. OpenAI (API) lub Google (Gemini) etc.
Pierwszy temat widzę tak, że to otwarty kod, więc i ryzyko mniejsze, że coś tam jest nie tak. Oczywiście nie jest pewnie równe zeru, bo i twórcy mogli popełnić jakieś błędy, co może sprawić, że soft będzie miał luki bezpieczeństwa. Możemy też (patrząc obiektywnie) zastanawiać się nad szczerością intencji twórców (abstrahując od softu - bo to temat uniwersalny i zawsze aktualny).
Drugi temat to integracja z choćby OpenAI. Temat SI jest już dość wszechobecny. Ja nie jestem fanem tego typu rozwiązań, bo wolę korzystać z własnej głowy, ale chcę nieco przesunąć tę granicę w kierunku złotego środka (stąd pytanie o PyGPT).
O ile zakładam, że twórcy PyGPT zadbali po swojej stronie o bezpieczeństwo danych na tyle, na ile mogli, zastanawiam się, jak to właściwie jest z tym OpenAI? Czy to jest tak, że te dane są u nich przechowywane, nawet jeśli korzystamy z API? Co z trenowaniem ich algorytmów naszymi prywatnymi danymi? Ja to bym sobie życzył tego, żeby to działało tak, że jeśli płacę za API to dostaję odpowiedź i moje dane zostają moje, bo w końcu zapłaciłem za "usługę". Aczkolwiek wydaje mi się, że tutaj jesteśmy na łasce i niełasce takich firm, bo koniec końców nie mamy pewności, co z takimi danymi się dalej stanie.
Ma ktoś jakieś doświadczenie / wiedzę w tej kwestii i mógłby się nieco wypowiedzieć?
Dzięki i pozdrawiam!
Czy ktoś z Was słyszał kiedyś o PyGPT? To osobisty asystent SI. Ma otwarty kod i można go zainstalować m.in. przy pomocy Snapa.
Wygląda bardzo interesująco, ale zastanawiam się, jak z bezpieczeństwem takiego softu?
Mamy tutaj 2 wymiary:
1. Bezpieczeństwo samego softu
2. Bezpieczeństwo związane z integracją z zewnętrznymi softami, jak np. OpenAI (API) lub Google (Gemini) etc.
Pierwszy temat widzę tak, że to otwarty kod, więc i ryzyko mniejsze, że coś tam jest nie tak. Oczywiście nie jest pewnie równe zeru, bo i twórcy mogli popełnić jakieś błędy, co może sprawić, że soft będzie miał luki bezpieczeństwa. Możemy też (patrząc obiektywnie) zastanawiać się nad szczerością intencji twórców (abstrahując od softu - bo to temat uniwersalny i zawsze aktualny).
Drugi temat to integracja z choćby OpenAI. Temat SI jest już dość wszechobecny. Ja nie jestem fanem tego typu rozwiązań, bo wolę korzystać z własnej głowy, ale chcę nieco przesunąć tę granicę w kierunku złotego środka (stąd pytanie o PyGPT).
O ile zakładam, że twórcy PyGPT zadbali po swojej stronie o bezpieczeństwo danych na tyle, na ile mogli, zastanawiam się, jak to właściwie jest z tym OpenAI? Czy to jest tak, że te dane są u nich przechowywane, nawet jeśli korzystamy z API? Co z trenowaniem ich algorytmów naszymi prywatnymi danymi? Ja to bym sobie życzył tego, żeby to działało tak, że jeśli płacę za API to dostaję odpowiedź i moje dane zostają moje, bo w końcu zapłaciłem za "usługę". Aczkolwiek wydaje mi się, że tutaj jesteśmy na łasce i niełasce takich firm, bo koniec końców nie mamy pewności, co z takimi danymi się dalej stanie.
Ma ktoś jakieś doświadczenie / wiedzę w tej kwestii i mógłby się nieco wypowiedzieć?
Dzięki i pozdrawiam!