DevOps dla Open Source

Wiele przedsiębiorstw korzysta z bibliotek firm trzecich bez przeskanowania pod kątem podatności lub planów długoterminowego wsparcia. Właśnie tutaj wkracza talent Solid Potential - możemy zapewnić bezpieczeństwo, wsparcie dla przedsiębiorstw i długoterminowe spokojne funkcjonowanie Twojej usługi. Nasze ogromne doświadczenie w społeczności Open Source może również pozytywnie wpłynąć na kulturę wkładu Twojej organizacji.

Dzięki Solid Potential nie będziesz musiał martwić się o wdrażanie i utrzymanie technologii Open Source w Twojej firmie. Gwarantujemy, że Twoje rozwiązania będą utrzymywane zgodnie ze wszystkimi standardami SRE.

Narzędzia, których używamy:

  • Linux to system operacyjny typu open source. Tworzenie odpowiedniego obrazu dla usługi przedsiębiorstwa może być wyzwaniem. Wymaga odpowiedniej konfiguracji pakietów lub zależności sieciowych. Dla naszych klientów tworzymy specjalne obrazy z dystrybucjami takimi jak Debian, Ubuntu, Arch Linux, Fedora, RedHat. Hostujemy je i wdrażamy za pomocą narzędzi open source lub usług chmurowych.

    https://www.linux.org

  • Docker to technologia konteneryzacji, która umożliwia tworzenie i wykorzystywanie kontenerów Linux, pozwalając na pakowanie i izolację aplikacji wraz z całym środowiskiem uruchomieniowym. Pomożemy Ci używać Dockera w Twoich potokach CI na wszystkich etapach, takich jak konfiguracja infrastruktury, wdrażanie i testowanie.

    https://www.docker.com

  • Kubernetes, znane również jako K8s, to system typu open-source do automatyzacji wdrażania, skalowania i zarządzania aplikacjami kontenerowymi. Kubernetes jest najpopularniejszą platformą do zarządzania i orchestrowania rozwiązań opartych na kontenerach. Solid Potential zaimplementuje i będzie wspierać Kubernetes w Twojej organizacji zgodnie z Twoją infrastrukturą w wersjach open source lub opartych na chmurze (GCP, AWS, Azure).

    https://kubernetes.io

  • Helm to rozwiązanie typu open source, które pomaga w zarządzaniu aplikacjami Kubernetes. Helm Charts pomagają zdefiniować, instalować i aktualizować nawet najbardziej skomplikowane aplikacje oparte na Kubernetes. Możemy zintegrować Helm z istniejącymi oraz nowymi rozwiązaniami opartymi na Kubernetes.

    https://helm.sh

  • Argo to otwarty silnik przepływu pracy (workflow engine) dedykowany dla kontenerów, służący do orkiestracji równoległych zadań na platformie Kubernetes. Argo Workflows został zaimplementowany jako CRD (Custom Resource Definition) w Kubernetes. Może być używany do definiowania przepływów pracy, gdzie każdy krok w przepływie pracy jest kontenerem. Można modelować przepływy pracy wielokrokowe jako sekwencję zadań lub uchwycić zależności między zadaniami za pomocą skierowanego grafu acyklicznego (DAG). Argo umożliwia również łatwe uruchamianie intensywnych obliczeniowo zadań związanych z uczeniem maszynowym lub przetwarzaniem danych w znacznie krótszym czasie.

    https://argoproj.github.io

  • Z pomocą Hashicorp Terraform możesz zautomatyzować infrastrukturę zgodnie ze standardem infrastruktury jako kod lub tworzyć wdrożenia wielochmurowe. Solid Potential może napisać dla Ciebie specjalne moduły, które mogą być używane między projektami, dostarczać szablony projektów i tworzyć wdrożenia. Sprawdź nasze historie sukcesu w dziedzinie automatyzacji infrastruktury - nie będziesz zawiedziony.

    https://www.terraform.io

  • HashiCorp Vault został stworzony w celu zarządzania sekretami i ochrony poufnych danych. Dla naszych klientów integrujemy HashiCorp Vault z ich systemami i tworzymy niestandardowe wtyczki. Możemy dostarczyć dla Ciebie scentralizowane wdrożenie, które obsługuje wszystkie działy w pełnej izolacji. Sprawdź, jak zrobiliśmy to dla innych klientów.

    https://www.vaultproject.io

  • Uniwersalna platforma Pulumi do infrastruktury jako kod pomaga zespołom opanować złożoność chmury, korzystając z najpopularniejszych języków programowania (TypeScript, Go, .NET, Python i Java) oraz języków znaczników (YAML, CUE). Terraform i Pulumi mają pewne podobieństwa, ponieważ umożliwiają tworzenie, wdrażanie i zarządzanie infrastrukturą jako kod w dowolnej chmurze. Jako klient możesz wybrać jedno lub oba rozwiązania, a my z przyjemnością udzielimy Ci porady.

    https://www.pulumi.com

  • Squid to serwer pośredniczący (proxy) do buforowania zasobów sieciowych, obsługujący protokoły HTTP, HTTPS, FTP i wiele innych. Dzięki swojej potężnej konfiguracji i obsłudze transparentnego pośrednictwa, używamy go jako narzędzia wyboru do filtrowania ruchu wychodzącego.

    http://www.squid-cache.org

  • GOCD to darmowy, open source serwer CI/CD. To rozwiązanie jest wykorzystywane przez wielu klientów korporacyjnych. Jeśli szukasz doświadczonego DevOps, który pomoże Ci utrzymać obecne zadania, wesprzeć rozwiązanie lub wdrożyć je od podstaw, trafiłeś we właściwe miejsce - możemy to zrobić dla Ciebie.

    https://www.gocd.org

  • GitLab to samodzielnie hostowany system do zarządzania kodem. Pozostaje popularnym, open-source'owym rozwiązaniem do hostowania repozytoriów Git, zaimplementowanym przez ponad 50 000 organizacji. W ciągu ostatnich kilku lat GitLab rozwijał się dzięki solidnemu wsparciu społeczności, obsługując tysiące użytkowników na jednym serwerze i wiele takich serwerów na aktywnym klastrze. Jeśli potrzebujesz potoków (pipelines) GitLab dla procesów SDLC, znajdujesz się we właściwym miejscu.

    https://about.gitlab.com

  • Cucumber to narzędzie oprogramowania, które wspiera rozwój oparty na zachowaniach (BDD - Behavior-Driven Development). Istotą podejścia BDD w Cucumber jest jego standardowy analizator języka o nazwie Gherkin. Pozwala on określić oczekiwane zachowania oprogramowania w języku logicznym, zrozumiałym dla klientów. Pomożemy Ci wdrożyć Cucumber w Twoich potokach testowych. Umów się na spotkanie.

    https://cucumber.io

  • Prometheus to otwarte narzędzie do monitorowania i generowania alertów dla systemów, początkowo stworzone w SoundCloud. Od momentu powstania w 2012 roku, wiele firm i organizacji przyjęło Prometheus, a projekt ma bardzo aktywną społeczność programistów i użytkowników. Obecnie jest samodzielnym projektem open source, utrzymywanym niezależnie od jakiejkolwiek firmy. W celu podkreślenia tego faktu oraz wyjaśnienia struktury zarządzania projektem, Prometheus dołączył w 2016 roku do Cloud Native Computing Foundation jako drugi projekt po Kubernetes. Możemy pomóc Ci w wdrożeniu, integracji i utrzymaniu Prometheus lub innych rozwiązań monitorowania open source lub opartych na chmurze.

    https://prometheus.io

  • Elasticsearch (ES), początkowo wydany w 2010 roku, to nowoczesny silnik wyszukiwania i analizy oparty na Apache Lucene. Całkowicie open source i zbudowany w języku Java, Elasticsearch jest bazą danych typu NoSQL. Możemy pomóc Ci w wdrożeniu, integracji i utrzymaniu Elasticsearch lub dowolnego innego nowoczesnego silnika wyszukiwania w wersji open source lub opartej na chmurze.

    https://www.elastic.co

  • Projekt Kubeflow dedykowany jest upraszczaniu, przenośności i skalowalności wdrożeń procesów uczenia maszynowego (ML) na platformie Kubernetes. Celem twórców nie było tworzenie kolejnych usług, lecz zapewnienie prostego sposobu wdrażania najlepszych rozwiązań open source do uczenia maszynowego w różnych infrastrukturach. Czy chciałbyś dowiedzieć się, w jaki sposób Kubeflow może pomóc Twojej organizacji w wdrażaniu procesów uczenia maszynowego? Umów się na spotkanie z nami.

    https://www.kubeflow.org

  • Kafka to rozproszony system składający się z serwerów i klientów, którzy komunikują się za pomocą wysokowydajnego protokołu sieciowego TCP. Może być wdrażany na sprzęcie bare-metal, maszynach wirtualnych i kontenerach zarówno w środowiskach lokalnych, jak i w chmurze. Kafka jest uruchamiana jako klaster składający się z jednego lub wielu serwerów, które mogą obejmować wiele centrów danych lub regionów chmurowych.

    https://kafka.apache.org

  • Apache Hadoop, lub po prostu Hadoop, to otwarty framework używany do efektywnego przechowywania i przetwarzania dużych zbiorów danych o rozmiarach sięgających od gigabajtów do petabajtów. Zamiast korzystać z jednego dużego komputera do przechowywania i przetwarzania danych, Hadoop umożliwia łączenie wielu komputerów w klastry w celu równoległego i szybszego analizowania ogromnych zbiorów danych. Składa się z czterech głównych modułów: Hadoop Distributed File System (HDFS), Yet Another Resource Negotiator (YARN), MapReduce i Hadoop Common.

    https://hadoop.apache.org

  • User

    CDAP is an integrated, open source application development platform for the Hadoop ecosystem that provides developers with data and application abstractions to simplify and accelerate application development, address a broader range of real-time and batch use cases, and deploy applications into production while satisfying enterprise requirements. CDAP exposes developer APIs (Application Programming Interfaces) for creating applications and accessing core CDAP services. CDAP defines and implements a diverse collection of services that land applications and data on existing Hadoop infrastructure such as HBase, HDFS, YARN, MapReduce, Hive, and Spark. If you need CDAP in your organisation, book free consultation to discuss your needs and deployment possibilities.

    https://cdap.atlassian.net/wiki/spaces/DOCS/overview

  • Apache Spark to wielojęzyczny silnik służący do przetwarzania danych, tworzenia analiz danych oraz uczenia maszynowego na pojedynczych maszynach lub klastrach. Jest to jednolity silnik analizy dla przetwarzania danych na dużą skalę. Spark udostępnia API o wysokim poziomie abstrakcji w językach Scala, Java, Python i R, oraz zoptymalizowany silnik wspierający ogólne grafy obliczeniowe dla analizy danych. Oferuje również bogaty zestaw narzędzi wyższego poziomu, w tym Spark SQL do pracy z SQL i DataFrames, API pandas na Spark do obciążeń związanych z pandas, MLlib do uczenia maszynowego, GraphX do przetwarzania grafów oraz Structured Streaming do przetwarzania strumieniowego.

    https://spark.apache.org

  • Apache Airflow (lub po prostu Airflow) to platforma do programowego tworzenia, harmonogramowania i monitorowania przepływów pracy. Kiedy przepływy pracy są definiowane jako kod, stają się łatwiejsze w utrzymaniu, wersjonowaniu, testowaniu i współpracy. Airflow może być używany do tworzenia przepływów pracy jako skierowanych grafów acyklicznych (DAG) zadań. Harmonogramista Airflow wykonuje Twoje zadania przy użyciu zestawu pracowników, zgodnie z określonymi zależnościami. Bogate narzędzia wiersza poleceń ułatwiają wykonywanie skomplikowanych operacji na DAG-ach. Bogaty interfejs użytkownika ułatwia wizualizację działających potoków produkcyjnych, monitorowanie postępu i rozwiązywanie problemów w razie potrzeby.

    https://airflow.apache.org

  • Apache Avro to system serializacji danych, który zapewnia bogate struktury danych, kompaktowy, szybki, binarny format danych, plik kontenerowy do przechowywania danych trwałych oraz zdalne wywołanie procedur (RPC). Avro pozwala na prostą integrację z językami dynamicznymi i generowanie kodu, które nie są wymagane do odczytu ani zapisu plików danych ani do korzystania z protokołów RPC.

    https://avro.apache.org

Historie naszych sukcesów

Chciałbyś się dowiedzieć wiecej?