Jump to content

Search the Community

Showing results for tags 'big data'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasze forum
    • Informacje
    • Propozycje, uwagi i błędy
  • Fedora
    • Instalacja systemu
    • Administracja systemu
    • Programy
    • Pakiety i źródła - instalacja, budowa i kompilacja
    • Sprzęt - konfiguracja i instalacja, sterowniki
    • Multimedia
    • Środowiska graficzne, menedżery okien
    • Programowanie
    • Strefa gier
    • Ośla łączka
    • Wirtualizacja
  • Red Hat Enterprise Linux
    • Instalacja systemu Red Hat Enterprise Linux
    • Administracja i Konfiguracja systemu Red Hat
    • Wirtualizacja na platformie Red Hat
    • Inne uwagi dotyczące platformy Red Hat
    • Szkolenia i certyfikaty
  • Sieci
    • Sieci lokalne
    • Połączenie z Internetem
    • Serwery i zarządzanie
    • Bezpieczeństwo
  • Offtopic
    • Pozostałe dystrybucje
    • No name
    • Ogłoszenia
    • Hyde Park
    • Kosz

Calendars

There are no results to display.


Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


AIM


MSN


Strona www


ICQ


Yahoo


Jabber


Skype


Skąd


Zainteresowania


Ulubiona dystrybucja


Środowisko graficzne


GG


TlenID


SkypeID


JID

Found 4 results

  1. Cześć, W GetinData szukamy osoby na stanowisko Administratora Big Data, który lubi lub chciałby instalować, konfigurować i zarządzać systemami rozproszonymi takimi jak np. Hadoop, Kafka, Flink, Hive. Najlepiej w zautomatyzowany sposób np. przy użyciu Ansible. Praca w różnych ciekawych produkcyjnych projektach dla naszych klientów, jako pełnoprawny członek naszego zespołu eksperckiego, od którego można się wiele nauczyć. Mile widziane wcześniejsze doświadczenie w pracy z Hadoop i/lub innymi systemami rozproszonymi i/lub chmurą, biegłości i produktywności z Linux, dobrych praktyk administracyjnych (np. monitoring, troubleshooting, logowanie zmian, testowanie przed wdrożeniem czegoś na producji ;) oraz szczera chęć rozwoju i nauki. Praca z naszego biura w Warszawie oraz okazjonalne wyjazdy do siedziby klienta. Wynagrodzenie adekwatne to umiejętności, w okolicach widełek 480-680zł za dzień + VAT na B2B. W GetInData oferujemy komfortową atmosferę i kulturę pracy - jesteśmy firmą założoną przez byłych pracowników Spotify, i przenosimy tamtejsze standardy na polski grunt. Kontakt na info@getindata.com. Więcej o nas na http://getindata.com - skupiamy się tylko i wyłącznie na Big Data i dotychczas zrealizowaliśmy ponad 20 projektów dla zagranicznych i polskich klientów np. Spotify, Play, Synerise, Freshmail.
  2. Senior Data & Analytics Solution Architect - Nr ref. (02/214) Kraków Job description Senior Data & Analytics Solution Architect will be collaborate in planning initiatives in strategy, system architecture, future roadmaps and support planning. Also will be work with business teams, technical analysts to understand business requirements and determine how to leverage technology to create solutions that satisfy the business requirements. The person on this position should present solutions to the business, project teams, and other stakeholders with the ability to speak technical and non-technical. He/She will create architecture and technical design documents to communicate solutions that will be implemented by the development team. Additionally will work with development, infrastructure, test, and production support teams to ensure proper implementation of solution or ability to assess the impact of new requirements on an existing suite of complex applications. Moreover candidate will educate organization on available, emerging toolsets and will drive the evolution of infrastructure, processes, products, and services by convincing decision makers. The person on this post should pay the attention to detail, time management, work prioritization, multi-tasking, estimate tasks, on-time deliverables, task delegation & follow-ups. Also will be a mentor team members on best practices in area of expertise and suggest training opportunities for immediate workgroup to help promote bench strength. Also should develop proofs-of-concept and prototypes to help illustrate approaches to technology and business problems. For more information, please contact Kinga Baran: kinga.baran[at]infolet.pl RequirementsExperience in building Business Intelligence platforms in an enterprise environment. Minimum of 10 years enterprise IT application experience that includes at least 3 years of architecting strategic, scalable BI, Bigdata solutions with a minimum of 5 years of hands-on software development. Data integration (batch, micro-batches, real-time data streaming) across Hadoop, RDMSs, NoSQL (MongoDB, Hbase), columnar (Vertica) and data warehousing (Teradata) systems. Experience in a GUI based ingestion tool (for example Talend or DataStage or ODI). Hadoop security, data management and governance. Solid understanding of MapReduce and HDFS footprints. Extensive programming experience in Java. Security implementation and data management. Experience in Scrum Driven Development using frameworks. Ability to understand business requirements and building pragmatic/cost effective solutions using Agile project methodologies. Excellent problem solving and analytical skills. Strong verbal and written communications skills. Additional requirementsAbility to collaborate with business users to understand requirements. Ability to work effectively across internal and external organizations. Executive speaking and presentation skills – white board, small and large group presentations. Our offerLarge development possibilities with the latest technologies. Work in international environment. The budget for this position is between 11 000 - 15 600 PLN and depends on the chosen form of the agreement (standard work agreement or B2B). Personal development and training. Medical care. Benefit Multisport. Home office option (up to 8 days, after adaptation period). Relocation package.
  3. Big Data/Hadoop/LAMP System Administrator - Nr ref. (73/09) Kraków Job descriptionThe vision of our client is to make the process of transferring customer’s money from one country to another as cost- effective and easy as possible. Therefore we are looking for Big Data/Hadoop/LAMP System Administrator to take the product to the next stage. For more information or to apply, please contact Paulina Oprych: paulina.oprych[at]infolet.pl RequirementsBS in Computer Science or relevant; Minimum 2-3 years equivalent Hadoop work experience and 6+ years IT experience; Managing the Cloudera Hadoop ecosystem (Kafka, Spark, Storm); Expertise supporting and designing web applications using LAMP (Linux, Apache / Nginx, MySQL, PHP) infrastructure; Understanding of the distributed computing and Hadoop base architecture; Deep Linux experience; Shell scripting experience. Additional requirementsManaging Couchbase / N1QL; Java / Scala / Python skills, Hadoop specific. Our offerWorking in one of the hottest startup in Europe; Working in multinational team; Possibility to develop in one of the most innovative technologies; Office in the heart of the Cracow city; Annual company off sites (previous trips to Ibiza, Berlin, and Barcelona).
  4. Witam Przyszłą koncepcja związana z budową klastera do obsługi serwera WWW Z racji iż projekt jest czysto hobbystyczny i nie wymagana jest super niezawodność, wydajność i to aby sprzęt był od jakiejś konkretnej firmy to zastanowiłem się czy nie warto byłoby wykorzystać moje umiejętności mechatroniczne i zrobić sobie klaster z raspberry pi Na początku coś niewielkiego - około 4x raspberry pi model B 1gb (bez BT i WIFI - zupełnie zbędne w tym przypadku) Jakie są wymagania dotyczące przestrzeni? 1x baza mysql o wielkości max 5gb FTP o wielkości około 1gb na pliki Problem 1) Nośnik danych jakim jest karta microSD w raspberry nie nadaje się w żaden sposób do przechowywania danych, jedyne sensowne rozwiązanie to wykorzystanie ramu jako przestrzeni dyskowej Problem 2) Przepustowość złącza ETHERNET Realnie wynosi 30-40mbps i jest nieredundantne - oczywiście można dołożyć po karcie sieciowej na USB i wrzucić kolejnego switcha 3) Obsługa bazy - nie jestem pewien czy ARM jest dobrą technologią do tego Wyprzedzając wszelkie pytania: 1) projekt nie jest komercyjny 2) liczy się zrobienie czegoś customowego bez użycia gotowego rozwiązania (nie chcę mieć za serwer gotowego klocka na X86-64) 3) Nie, nie mogę kupić sobie 10gb przestrzeni dyskowej od firmy hostingowej - dlaczego? Bo to projekt hobbystyczny aby zobaczyć jakie problemy mogą się pojawić na starcie i podczas użytkowania 4) Po co kombinować? Aby się czegoś nauczyć gdyż architektura ARM w ostatnim czasie prowadzi dość mocną "ekspiację" w rynku procesorów dla systemów wbudowanych jak i próbuje robić to samo z serwerami Do chłodzenia wykorzystałbym powietrze, na procesorach przykleił taśmą dwustronną termoprzewodzącą malutkie miedziane radiatory Do storage nie użyłbym dysków twardych, serwera z NAS ani niczego innego, byłoby wszystko w pamięci RAM odpowiednio rozłożone Czekam na komentarze oraz spostrzeżenia dotyczące serwera webowego na tej platformie
×