Big Data in der Produktion: 12 reale Anwendungsfälle


Wesentlich früher als die heutigen Produktionsgiganten hat Henry Ford einen klugen „Schachzug“ gemacht. Er bezahlte dem Wartungsteam in einer seiner Fabriken nicht die Reparatur der Ausrüstung, sondern die Zeit, die in einem Aufenthaltsraum verbracht wurde, wenn kein Ausfall auftrat. Ergebnis: die Mitarbeiter waren produktiver und die Ausfallkosten sanken.

Aber heute würde nicht einmal die Genialität von Henry Ford ausreichen, um Fertigungsprozesse zu optimieren. Jetzt, um wettbewerbsfähig zu bleiben, brauchen Sie sowohl Ihre Erfindungskraft als auch Technologie. Aus diesem Grund wenden sich Unternehmen an Big-Data-Experten. In unsrem Blogbeitrag finden Sie 12 Anwendungsfälle, die entdecken, welche großartigen Möglichkeiten Big Data in der Produktion aus 4 verschiedenen Perspektiven anbietet.

Big Data in der Produktion

Verbesserung bei der Metallgewinnung

Der Erzgehalt eines vertikal integrierten Edelmetallherstellers nahm ab. Der einzige logische Weg zur Vermeidung von Verlusten bestand in der Verbesserung der Metallgewinnung und Edelmetallscheidung. Mithilfe von Sensordaten identifizierte die Big-Data-Lösung des Herstellers, welche Faktoren den Output am meisten beeinflusst haben. Und als dominierender Parameter entpuppte sich der Sauerstoffgehalt. Mit dieser Erkenntnis änderte das Team den Auslaugungsprozess leicht und erhöhte die Ausbeute um 3,7%. Dank der Big-Data-Analyse verdient der Hersteller jedes Jahr zusätzlich 10 bis 20 Millionen US-Dollar. Es ist ein ziemlicher Gewinn mit Rücksicht darauf, dass die Qualität des Erzgehaltes um 20% sank.

Optimierung der Ausbeute in den chemischen Unternehmen

Ein führender europäischer Chemiehersteller wollte die Ausbeute verbessern. Mithilfe von Sensoren analysierte seine Big-Data-Lösung, wie jeder Inputfaktor die Produktionsleistung beeinflusst. Sie analysierte Temperaturen, Mengen, Kohlendioxidfluss und Kühlmitteldruck und verglich deren Einflussraten miteinander. Als Ergebnis wurde gezeigt, dass Kohlendioxid-Durchflussraten die Ausbeute stark beeinflussen. Durch eine leichte Änderung der Parameter konnten die Abfälle von Rohstoffen (um 20%) und die Energiekosten (um 15%) signifikant gesenkt und die Ausbeute eindrucksvoll verbessert werden.

Steigerung der Ausbeute bei der Herstellung von Impfstoffen

Ein großes Pharmaunternehmen musste einen Weg finden, die Ausbeute bei der Herstellung von Impfstoffen zu verbessern. Um das zu erreichen, analysierte die Big-Data-Lösung des Unternehmens ihre Sensordaten von der Ausrüstung, deckte die Abhängigkeiten zwischen verschiedenen Produktionsparametern auf und verglich, wie jeder davon die Ausbeute beeinflusste. Dann wurden 9 entscheidende Parameter identifiziert, überprüft und angepasst, um den Herstellungsprozess zu optimieren. Das verbesserte die Ausbeute bei der Herstellung von Impfstoffen um 50%. Jetzt verdient das Unternehmen zusätzlich von 5 bis 10 Millionen US-Dollar pro Jahr für einen chemischen Stoff.

„Zuckersüße“ Optimierung

Hohe Luftfeuchtigkeit und minderwertige Rohstoffe wirken sich sehr negativ auf den Zuckergeschmack bei einem großen Zuckerhersteller aus. Um das zu bekämpfen, wird eine Big-Data-Lösung erstellt (mit maschinellem Lernen), um Sensordaten zu analysieren und Korrelationen zwischen den Parametern zu finden, die zur besten Zuckerqualität beitragen. Mit dieser Erkenntnis gelang es dem Hersteller, einen Weg zu finden, die Produktqualität schnell zu beeinflussen und unabhängig von externen Faktoren einen einheitlichen Standard für Zucker zu erreichen. Der Hersteller konnte dadurch die Produktionskosten senken, die Kundenzufriedenheit erhöhen und die Arbeitsbelastung erleichtern.

Qualitätssicherung in einem frühen Stadium der Automobilfertigung

Bereits im Jahr 2014 hat BMW mithilfe von Big Data Schwachstellen in seinen neuen Fahrzeugprototypen erkannt. Die Daten wurden von Sensoren an den getesteten Prototypen und in Verkehr befindlichen Autos gesammelt. Dank der Big-Data-Analyse entdeckte die BMW-Lösung (wahrscheinlich in ihre Fahrzeugdesign- und Modellierungssoftware integriert) Schwachstellen und Fehlermuster in den Prototypen und in den bereits benutzten Fahrzeugen. Es ermöglichte Ingenieuren, aufgedeckte Schwachpunkte zu beseitigen, bevor die Prototypen tatsächlich in Produktion gingen, und dazu beizutragen, die Rückrufe von bereits in Verkehr befindlichen Fahrzeugen zu reduzieren. Dadurch kann BMW nicht nur frühzeitig eine höhere Qualität sicherstellen, sondern auch die Garantiekosten senken, den Ruf der Marke stärken und wahrscheinlich jemandes Leben retten.

Design vom Dü­sen­trieb­werk

Rolls-Royce nutzt Big Data umfänglich. Und eine ihrer interessantesten Big-Data-Erfahrungen bei der Herstellung ist mit der Modellierung neuer Flugzeugtriebwerke verbunden.

In der Entwurfsphase erstellt ihre Software (integriert mit einem Big-Data-Tool) Simulationen neuer Dü­sen­trieb­werke und analysiert Terabytes an Big Data, um zu sehen, ob die neuen Modelle gut sind. Das ermöglicht es dem Unternehmen, Schwachstellen zu finden, bevor das Modell in Produktion geht, was die Fehlerkosten reduziert und hilft, das Produkt in einer viel höheren Qualität zu entwerfen.

Datengesteuertes Unternehmenswachstum

Mithilfe von Big Data in der Produktion können Unternehmen globale Entwicklungsherausforderungen bewältigen, z. B. die Produktion in andere Länder zu verlagern oder neue Fabriken an neuen Standorten zu eröffnen. Die Analyse von historischen und externen Daten des Unternehmens kann feststellen, ob es noch rentabel ist, Fabriken an aktuellen Standorten oder mit aktuellen Volumen zu betreiben, indem Vorhersagemodelle und „Was-wäre-wenn“-Szenarien erstellt werden.

In den richtigen Händen können Big Data darüber hinaus dazu beitragen, den Ozean von ungesehenen Möglichkeiten zu erkunden, wie z.B. neue Produkte anzubieten oder neue Märkte zu erobern.

Zugängliche Rohstoffe

Um Kosten zu vermeiden, die mit den Störungen der Versorgungskette verbunden sind, benötigte ein Unternehmen eine bessere Möglichkeit, die Rohstofflieferung zu verwalten. Es hat sich dafür entschieden, Routendetails ihrer Lieferanten und von einer vertrauenswürdigen externen Quelle bereitgestellten Wetterdaten zu verwenden, um die Wahrscheinlichkeit von Lieferverzögerungen zu identifizieren. Um das zu erreichen, nutzte sein Big-Data-Tool (das möglicherweise in seine MRP integriert war) Predictive Analytics und berechnete mögliche Verzögerungen und Rohstoffmangel. Aufgrund dieser Berechnungen hat das Unternehmen einen versorgungsbezogenen Notfallplan ausgearbeitet und kann nun seine Produktion unterbrechungsfrei ausführen und übermäßige Stillstandskosten vermeiden.

Vorbeugende Wartung

Die Betriebsausrüstung von Intel überträgt IoT-Daten live in ihre Big-Data-Lösung (wahrscheinlich in MES integriert). Die Analytics-Lösung nutzt diese Daten zur Mustererkennung, Fehlerdetektion und Visualisierung. Es ermöglicht Ingenieuren zu erkennen, welche Tendenzen ihre unmittelbare Aufmerksamkeit erfordern und welche Maßnahmen erforderlich sind, um schwere Ausfälle zu verhindern. Eine solche vorbeugende Wartung reduziert die Reaktionszeit von 4 Stunden auf 30 Sekunden und senkt die Kosten. Im Jahr 2017 prognostizierte Intel dank Big Data und IoT Einsparungen von 100 Millionen US-Dollar.

Reinigung von Schiffsrümpfen

Als Standard-After-Sales-Verfahren beauftragte ein Kunde Caterpillar Marine mit einer Analyse, wie sich die Reinigung von Schiffsrümpfen auf die Flottenleistung auswirkt. Die Big-Data-Lösung von Caterpillar (integriert mit ihrer Asset-Intelligence-Plattform) analysierte Daten von Sensoren an Bord von Schiffen, die mit oder ohne gereinigte Schiffsrümpfe betrieben wurden. Dann fand es Korrelationen zwischen den Investitionen des Kunden in die Reinigung von Schiffsrümpfen und der Flottenleistung. Schon bald kam Caterpillar zum Schluss, dass sein Kunde die Rümpfe öfter reinigen musste (alle 6,2 Monate, nicht alle 2 Jahre) und dass sich die damit verbundenen Investitionen lohnen. Mit Big Data konnte der Hersteller dazu beitragen, dass seine Produkte optimal eingesetzt werden und das Image des Unternehmens verbessert ist.

Optimierung des Windparks

Als Befürworter vom After-Sales-Service mit einem personalisierten Ansatz in Bezug auf die Kunden in der Produktion hilft General Electric den Energieerzeugern, Big Data auf 4 Stufen zu nutzen.

Stufe 1. Die Sensordatenanalyse der Windkraftanlage ermöglicht es den Energieerzeugern, die Blattverstellung der Turbine und Energieumwandlung automatisch zu optimieren.

Stufe 2. Die Windpark-Überwachungssoftware vergleicht Sensordaten mit vorhergesagten Werten und erkennt Leistungsmuster. Das hilft den Energieerzeugern, vorbeugende Wartung in den Parken durchzuführen.

Stufe 3. Energieerzeuger verwenden historische und Echtzeitdaten, um Vorhersagemodelle zu erstellen, Korrelationen zu finden, Fehler und Muster zu erkennen, um die Arbeit der Park zu optimieren.

Stufe 4. Die Daten werden visualisiert und dem Top-Management zur Entscheidungsfindung im globalen Maßstab präsentiert.

Vernetzte Flugzeugmotore

Außer der Entwurfsphase verwendet Rolls-Royce auch Big Data, um seinen Kunden After-Sales-Support zu bieten und ihre Flugzeugmotore zu einem vernetzten und intelligenten Produkt zu machen.

In der After-Sales-Phase analysieren Rolls-Royce-Betriebszentren in Echtzeit die von den Motorsensoren gelieferten Daten und gewinnen Erkenntnisse zu ihrer Leistung. Wenn ein Defekt oder eine alarmierende Tendenz bemerkt wird, können Ingenieure sofort notwendige Maßnahmen ergreifen, um katastrophale Ergebnisse zu vermeiden.

Dieser Ansatz ermöglicht es Rolls-Royce, ihre Produktqualität zu steigern, die Kosten deutlich zu senken, sichere Flüge zu gewährleisten und ihren Kunden Dienstleistungen auf hohem Niveau zu bieten.

–Epilog–

Diese Anwendungsfälle zeigen, dass Big Data großes Geld und großen Wert bringen kann. Sie zeigen auch, dass Big Data in der Produktion am häufigsten für die Produktionsoptimierung verwendet wird. Und es ist ziemlich logisch: Big-Data-Lösungen sind wirklich gut darin, Korrelationen zu finden. Und Produktionsänderungen aufgrund sinnvoll ausgewählter Korrelationen können die Ausbeute enorm verbessern.

Sie hätten auch bemerken können, dass fast alle Fälle Sensordaten enthalten. Normalerweise gibt es in den Fabriken in der Regel so viele Sensoren, dass ihr Betrieb der Steuerung eines Raumschiffs mit zahlreichen Echtzeitberichten und vorausschauenden Analysen ähnlich ist. Und um Schiffskollisionen zu vermeiden, können sich Kapitäne, bevor sie an Bord gehen, immer an das Big-Data-Beratungsteam wenden und in den unendlichen Welträumen mit maximalem Komfort und Sicherheit segeln.

Big Data ist der nächste Schritt zu Ihrem Erfolg. Wir helfen Ihnen, den richtigen Ansatz zu finden und volles Potenzial von Big Data zu entfalten.



Source link

The 5 best screen recording software and apps of 2022


Compatibility: Android, iOS, Mac, Windows

Founded in 2015, today Loom is a screen recording software used by such giants like HubSpot, Netflix, and Lacoste, boasting a total number of 14 million users and 200 companies that use its services. Loom’s shining feature is that it includes several methods of recording, whether it is your screen, camera, microphone, or internal audio. Videos are automatically saved to the cloud for easy access when you need to view them later. This is a type of software that is designed for easy collaboration, offering viewers the option to interact with you through time-stamped comments and fun emoji reactions. You will also receive a notification every time there is viewer activity on your account, so you do not ever miss a comment. You can also access a mobile-friendly library on the go so you can access your videos even when you are not at your computer. Security controls keep you in control, too, giving you detailed viewer information so you can improve your videos over time. There is a free plan for the occasional user, or you can upgrade to a paid plan if you plan on staying busy. 

Loom subscription plans:

A 14-day trial of Loom Business is included.

Plan

Cost

Videos per person

Minutes per video

Free

$0

25

5

Business

$8/mo. per Creator

Unlimited

Unlimited

Enterprise

Custom

Custom

Custom

Pros:

  • User-friendly
  • Chrome extension
  • Added convenience features

Cons:

  • Requires strong, stable internet
  • Some audio issues reported
  • Limited recording under free plan



Source link

Wie Big Data Ihre IoT-Lösung beeinflusst


Die Zahl der mit dem Internet verbundenen Geräte wird sich bis 2025 voraussichtlich verdreifachen. Dementsprechend schließt sich das IoT der Reihe von wichtigen Big-Data-Quellen an. Das veranlasst die Datenexperten dazu, ihre Aufmerksamkeit auf Big Data im IoT zu richten.

Einfluss von Big Data auf IoT

Die Natur von Big Data im Internet der Dinge

Big Data im IoT unterscheidet sich deutlich von anderen Typen von Big Data. Um sich ein klares Bild zu machen, stellen Sie sich ein Sensornetzwerk vor, das kontinuierlich Daten generiert. In der Produktion handelt es sich zum Beispiel um Temperaturwerte von einem bestimmten Maschinenteil, sowie Vibrationen, Schmierung, Feuchtigkeit, Druck und vieles mehr. Also, Big Data im IoT ist maschinengeneriert, nicht von Menschen erzeugt. Und das stellt hauptsächlich keine großen Portionen von Texten, sondern den Fluss von Zahlen dar.

Stellen Sie sich nun vor, dass jeder Sensor 5 Messungen pro Sekunde erzeugt (insgesamt sind 1.000 Sensoren installiert). Und diese großen Datenmengen fließen unaufhörlich (übrigens haben solche Daten einen speziellen Namen – Streaming-Daten). Auf jeden Fall gehört die reine Datensammlung nicht zu Ihrem obersten Ziel – Sie benötigen wertvolle Einsichten, von denen einige so ähnlich wie möglich zu Echtzeit sind. Wenn der Druck plötzlich ein kritisches Niveau erreicht, wird das Sie nicht freuen, wenn Sie darüber erst in ein paar Stunden erfahren. Zu diesem Zeitpunkt hat Ihr Wartungsteam möglicherweise bereits versucht, eine beschädigte Maschine zu reparieren.

Außerdem sind IoT-Daten orts- und zeitspezifisch. Obwohl es zahlreiche Beispiele gibt, werden wir hier nur ein paar erwähnen: Standortdaten sind äußerst erforderlich, um zu verstehen, welcher der Sensoren die Messwerte übermittelt, die wahrscheinlich einen bevorstehenden Fehler signalisieren. Ein Zeitstempel ist dabei von Bedeutung, um ein bestimmtes Muster zu identifizieren, das einen Maschinenausfall verursachen kann. Zum Beispiel steigt die Temperatur alle 10 Sekunden um 5°C an, ohne einen Schwellenwert zu überschreiten, was zu einem Druckanstieg um 1.000 Pa für eine Minute führt.

Speicherung, Vorverarbeitung und Analyse von Big Data im Internet der Dinge

Natürlich hängt die Lösungsarchitektur immer von Ihren Geschäftszielen ab. Die Natur von Big Data im IoT prägt jedoch, wie Daten gespeichert, vorverarbeitet und analysiert werden. Betrachten wir spezifische Eigenschaften von jedem Prozess genauer.

Speicherung von Big Data im IoT

Da Sie große Mengen an schnell eintreffenden strukturierten und unstrukturierten Daten in unterschiedlichen Formaten behandeln müssen, wird ein herkömmliches Data Warehouse Ihre Anforderungen nicht erfüllen. Sie benötigen einen Data Lake (Datensee) und ein Big-Data-Warehouse. Ein Data Lake kann in mehreren Zonen, z. B. eine Landing Zone (für Rohdaten in ihrem ursprünglichen Format), eine Staging Zone (für die Daten nach einer einfachen Reinigung und Filterung und für Rohdaten aus anderen Datenquellen) sowie analytisches Sandbox (für Data Science und explorative Aktivitäten). Ein Warehouse für Big Data ist erforderlich, um die Daten aus einem Datensee zu extrahieren, zu transformieren und strukturiert zu speichern.

Vorverarbeitung von Big Data im IoT

Es ist wichtig zu entscheiden, ob Sie rohe oder bereits vorverarbeitete Daten speichern möchten. Diese Frage richtig zu beantworten ist eigentlich eine der Herausforderungen, die im Zusammenhang mit IoT und Big Data steht. Lassen Sie uns zu unserem Beispiel mit einem Sensor zurückkehren, der 5 Temperaturwerte pro Sekunde übermittelt. Eine Option ist, alle 5 Messwerte zu speichern, während die andere darin besteht, nur einen Wert zu speichern, wie z. B. ihren Mittelwert/Medianwert/Modalwert pro Aggregationszeit von einer Sekunde. Um deutlich zu sehen, welchen Unterschied ein solcher Ansatz zur benötigten Speicherkapazität macht, sollten Sie die Gesamtanzahl der Sensoren mit ihrer erwarteten Laufzeit und dann mit ihrer Lesefrequenz multiplizieren.

Wenn es auch zu Ihrem Plan gehört, Einsichten in Echtzeit zu gewinnen, ist es immer noch möglich, Warnmeldungen in Echtzeit zu erhalten, ohne alle Messwerte an den Datenspeicher zu senden. Zum Beispiel nimmt Ihr System den gesamten Datenfluss auf, und Sie legen kritische Schwellenwerte oder Abweichungen fest, die sofortige Warnungen auslösen. Dennoch werden nur einige gefilterte oder komprimierte Daten an den Datenspeicher gesendet.

Möglichkeiten, Datenverluste zu vermeiden

Es ist auch notwendig, im Voraus darüber nachzudenken, was passiert, wenn der Messwertfluss aus irgendeinem Grund unterbrochen wird, zum Beispiel wegen eines vorübergehenden Sensorausfalls oder eines Verlustes seiner Verbindung mit dem Gateway.

Hier sind zwei Ansätze möglich:

  • Verwendung von robusten Algorithmen, für die Datenauslassungen nicht kritisch sind.
  • Verwendung von redundanten Sensoren, z. B. mit mehreren Sensoren dieselben Parameter zu messen. Das erhöht einerseits die Zuverlässigkeit: fällt ein Sensor aus, senden die anderen weiterhin ihre Messwerte. Auf der anderen Seite erfordert dieser Ansatz kompliziertere Analysen, weil die Sensoren leicht unterschiedliche Werte erzeugen können, was durch analytische Algorithmen verarbeitet werden sollte.

Analyse von Big Data im IoT

Big Data im IoT erfordert zwei Arten von Analysen: Batch und Streaming. Die Batch-Analyse ist von allen Typen von Big Data untrennbar, und Big Data im IoT ist keine Ausnahme. Sie wird häufig verwendet, um eine komplexe Analyse der erfassten Daten durchzuführen, um Trends, Korrelationen, Muster und Abhängigkeiten zu identifizieren. Die Batch-Analyse umfasst ausgeklügelte Algorithmen und statistische Modelle, die auf historische Daten angewendet werden.

Die Streaming-Analyse deckt alle Besonderheiten von Big Data im IoT perfekt ab. Sie wurde entwickelt, um Hochgeschwindigkeitsdatenströmen zu behandeln, die in kleinen Zeitintervallen erzeugt werden, und um Einblicke in nahezu Echtzeit zu liefern. Für verschiedene Systeme variiert dieser “Echtzeit”-Parameter. In einigen Fällen kann es in Millisekunden gemessen werden, während in den anderen – in einigen Minuten. Um Erkenntnisse so schnell wie möglich zu erhalten, können die erfassten Daten ohne Schreiben auf einem Datenträger oder sogar in einem Daten-Streaming-Prozessor analysiert werden.

Zusammenfassend

Von Natur aus ist Big Data in Verbindung mit dem Internet der Dinge maschinengeneriert, großvolumig, streaming-, orts- und zeitspezifisch. Die Big-Data-Beratungspraxis zeigt, wie wichtig es ist, diese Features vor der Entwicklung und der Implementierung einer IoT-Lösung zu berücksichtigen. Wir sind sicher, dass Sie nicht wollen, in ein paar Monaten keinen Speicherplatz mehr haben oder Echtzeit-Einblicke verpassen, nur weil Ihre Lösung keine Streaming-Analysen unterstützt. Oder ein anderes Problem haben, das die Robustheit Ihrer IoT-Lösung beeinträchtigt. Um das zu vermeiden, müssen Sie Ihre kurzfristigen und langfristigen Geschäftsanforderungen klar identifizieren und sehr sorgfältig eine optimale Big-Data-Architektur und einen Technologie-Stack aus mehreren Optionen auswählen.

Big Data ist der nächste Schritt zu Ihrem Erfolg. Wir helfen Ihnen, den richtigen Ansatz zu finden und volles Potenzial von Big Data zu entfalten.



Source link

Safeguard your iPhones, iPads and Macs: Apply these security updates now


Locked iPhone in front of Mac

Image: Maria Diaz / ZDNet

Apple has released security updates for iPhones, iPads and Macs after disclosing a series of vulnerabilities that could allow attackers to secretly take control of devices.

The company said that it is “aware of a report that this issue may have been actively exploited,” suggesting that hackers have already targeted the vulnerabilities to compromise Apple device users.

Apple has released two security updates, the first relating to issues affecting iPhone 6s and later models, all models of iPad Pro, iPad Air 2 and later, iPad 5th generation and later, iPad Mini 4 and later – as well as 7th generation models of iPod touch.

The second security update relates to vulnerabilities in MacOS Monterey, Apple’s desktop operating system for Macs.

In both cases, the vulnerabilities could allow cyber attackers to execute arbitrary code at kernel and WebKit level, which ultimately allows attackers to run malicious code on devices, to the extent that they could take control of them. This could allow attackers to conduct various forms of malicious and cyber criminal activity, putting the user at risk.

SEE: How to tell if someone is using your iPhone to spy on you (and how to put a stop to it)

The vulnerabilities have been assigned Common Vulnerabilities and Exposures (CVE) numbers — CVE-2022-32894 for the vulnerability in the kernel and CVE-2022-32893 for the vulnerability in the WebKit. In each case, the discovery of the vulnerabilities has been attributed to an anonymous researcher.

Apple has not detailed how many users have been affected by the vulnerabilities, but the warning over the bugs being actively exploited suggests that cyber attackers are already going after victims.

Most users probably won’t be actively targeted by cyber attackers looking to exploit the vulnerabilities — it’s more likely to be exploited by commercial spyware operators and nation-state backed hacking groups — but it’s still a good idea to apply the security updates as soon as possible in order to stay safe.

Routinely applying security updates to any device or operating is good security practice and can go a long way towards protecting devices and people from falling victim to cyber attacks. 

MORE ON CYBERSECURITY



Source link

Alternative Ansätze zur Implementierung von Ihrem Data Lake


Hat sich Ihr Unternehmen entschlossen, einen Data Lake (deutsch „Datensee“) für Ihr Big Data zu implementieren? Auf alle Fälle ist das eine spannende und gute Nachricht! Allerdings liegen noch schwierige Zeiten vor Ihnen, weil Sie so viele grundlegende Fragen klären und beantworten müssen. In dieser Etappe sind Sie höchstwahrscheinlich an einer Architektur von Data Lake und dem erforderlichen Technologie-Stack interessiert. Um Ihre Reise reibungslos und komfortabel zu machen, haben unsere Big-Data-Berater einen Überblick über alternative Implementierungsansätze erstellt.

Ein Data Lake kann aus mehreren Zonen bestehen: einer Landing Zone (auch als Transient Zone oder Übergangszone bezeichnet), einer Staging Zone und einem analytischen Sandbox. Von allen genannten Zonen ist nur die Staging Zone obligatorisch, alle anderen sind optional. Um herauszufinden, wofür jede Zone steht, werfen wir einen genaueren Blick darauf.

Ansätze zur Implementierung von Data Lake

1.     Landing Zone  

Hierher kommen die Daten (strukturiert, unstrukturiert und halbstrukturiert), die bereinigt und/oder gefiltert werden müssen. Zum Beispiel sammeln Sie IoT-Daten von Sensoren. Wenn einer der Sensoren ungewöhnlich hohe Werte sendet, während die anderen Sensoren, die denselben Parameter messen, nichts Ungewöhnliches registriert haben, markiert eine in dieser Zone eingesetzte Verarbeitungsengine die Werte als fehlerhaft.

2.     Staging Zone

Es gibt zwei Möglichkeiten, wie Daten in die Staging Zone geraten. Erstens können sie aus der Landing Zone kommen (falls diese vorhanden ist), wie die Sensordaten aus unserem vorherigen Beispiel. Zweitens können wir Daten, die keine Vorverarbeitung erfordern, von anderen internen oder externen Datenquellen beziehen. Kundenkommentare in sozialen Netzwerken sind ein gutes Beispiel, um diesen Fall zu veranschaulichen.

3.     Analytisches Sandbox

Das ist die Zone für Experimente mit Daten, die von Datenanalysten durchgeführt werden. Es unterscheidet sich von der Analytik, die wir uns normalerweise vorstellen, weil ihre gefundenen Ergebnisse (wenn überhaupt) nicht direkt von Unternehmen verwendet werden. Übrigens haben wir dieses „wenn überhaupt“ bewusst angegeben. Es kommt ziemlich oft vor, dass Analysten einige Modelle oder Algorithmen in Bezug auf Rohdaten anwenden (die auch mit den Daten aus einem Big-Data-Warehouse oder aus anderen internen oder externen Datenquellen verbunden sein können) und keine wertvollen Ergebnisse erhalten. Für die explorative Datenanalyse ist das normal.

4.     Und noch eine Zone kommt in Frage – Curated Data Zone

Inzwischen hätte unsere Liste vorbei sein sollen, wenn es nicht einen kleinen Haken gegeben hätte. In einigen Quellen können Sie auf eine weitere Komponente eines Data Lake – Curated Data Zone – stoßen. Das ist die Zone mit organisierten Daten, die für die Datenanalyse bereit sind.

Es gibt unterschiedliche Meinungen darüber, ob die Curated Data Zone als Teil eines Data Lake betrachtet werden soll. Obwohl beide Ansätze sinnvoll sind, sind wir der Meinung, dass das eher nicht der Fall sein sollte. Bevor wir jedoch die Argumente zur Unterstützung unseres Standpunkts vorbringen, lassen wir uns die Begriffe in Ordnung bringen.

Sehen Sie sich noch einmal die Beschreibung der Curated Data Zone an. Sieht sie nicht ähnlich aus wie ein gutes altes traditionelles Data Warehouse? Das stimmt durchaus! Der einzige Unterschied besteht darin, dass ein herkömmliches Data Warehouse nur mit traditionellen Daten arbeitet und die Curated Data Zone mit traditionellen Daten und Big Data. Um den Einfluss von Datentypen zu neutralisieren, erweitern wir den Namen auf Big-Data-Warehouse.

Ansätze zur Implementiereung von Data Lake

Jetzt, nachdem wir klargestellt haben, dass die Curated Data Zone auch als Big-Data-Warehouse bezeichnet werden kann, wollen wir besprechen, warum wir der Ansicht sind, dass sie sich außerhalb eines Data Lake befindet. Die in einem Big-Data-Warehouse gespeicherten Daten unterscheiden sich grundlegend von den Daten in einer beliebigen Zone eines Data Lake – sie sind besser organisiert und liefern bereits Erkenntnisse für Geschäftsanwender.

Außerdem wird die Unterscheidung zwischen traditionellen Daten und Big Data in dieser Phase der Datenreise unkritisch. Beide Typen koexistieren friedlich und ergänzen sich gegenseitig, um ihren Zweck zu erfüllen – um Geschäftsanwendern Einblicke zu verschaffen. Um beispielsweise Kunden zu segmentieren, können Sie eine Vielzahl von Daten analysieren, zu denen Big Data wie die Surfhistorie eines Kunden auf der Website und die Aktivitäten in mobilen Apps für Kunden gehören. Später können Sie Berichte zu Umsatz oder Gewinn pro Kundensegment erstellen, was reine traditionelle Business Intelligence darstellt.

Wenn Sie sich wundern, warum ein Big-Data-Warehouse manchmal als Teil eines Data Lake betrachtet wird, haben wir auch eine Erklärung dafür. Die meisten Unternehmen, die sich für Big Data entscheiden, verfügen bereits über ein traditionelles Data Warehouse. Daher entscheiden sie sich normalerweise dafür, ihre analytische Lösung durch den Aufbau eines Data Lake zu erweitern. In diesem Fall bleibt ein traditionelles Data Warehouse ein herkömmliches wichtiges Element und alle neuen Elemente sind mit einem Data Lake verbunden.

Ansätze zue Implementierung von Data Lake

Die Liste der Technologien zur Speicherung von Big Data umfasst eine Vielzahl von Namen: Hadoop Distributed File System, Apache Cassandra, Apache HBase, Amazon S3, MongoDB sind nur einige der beliebtesten. Zweifellos wird man bei der Auswahl eines Technologie-Stacks für einen Data Lake zuerst an die Technologien denken, die die Speicherung von Big Data ermöglichen. Das ist eine richtige Grundlage, obwohl Sie sich auch über die Verarbeitung Gedanken machen müssen. Deshalb sollte die Liste der Technologien mit Apache Storm, Apache Spark, Hadoop MapReduce usw. erweitert werden. Kein Wunder, wenn Sie verwirrt sind, welche Kombination die beste Wahl für Ihren Data Lake ist!

Bestimmende Faktoren zur Auswahl eines Technologie-Stacks

Obwohl jeder Fall individuell ist, haben wir fünf wichtige Faktoren zusammengefasst, die zum Ausgangspunkt Ihrer Diskussion mit Ihren Big-Data-Beratern werden:

  • Daten, die gespeichert und verarbeitet werden müssen: Big Data im IoT, Texte, Video usw.
  • Erforderliche Architektur eines Data Lake
  • Skalierbarkeit
  • In-Cloud- oder On-Premises-Lösung
  • Integration mit den vorhandenen Komponenten der IT-Architektur.

Gibt es eine führende Technologie?

Gemäß der allgemeinen Big-Data-Beratungspraxis ist Hadoop Distributed File System (HDFS) die beliebteste unter der Vielzahl möglicher Technologien für einen Big Data Lake. Die Gründe sind wie folgt:

  • HDFS ist extrem gut in der Handhabung der Datenvielfalt in einem Big Data Lake. Big Data im IoT, Video-, Audio- und Textdateien – mit HDFS können Sie jeden Datentyp speichern. Wenn wir vergleichen, ist Apache Cassandra gut zum Speichern von Big Data im IoT, während MongoDB – von Texten.
  • HDFS unterstützt eine Vielzahl von Verarbeitungstechniken. HDFS ist eines der Elemente des Apache Hadoop-Ökosystems, das mehrere andere Komponenten wie Hadoop MapReduce, Hadoop YARN, Apache Hive, Apache HBase usw. enthält. Da sie zur selben Familie gehören, ist es selbstverständlich, dass jede davon sehr kompatibel mit HDFS ist. Außerdem hat sich HDFS als sehr kompatibel mit Apache Spark erwiesen, was die Möglichkeit bietet, Big Data schnell zu verarbeiten.

Natürlich können Sie auch andere Technologien in Betracht ziehen, um einen Data Lake zu implementieren. Ein wichtiges Kriterium ist hier das Wissen, wie man seine Grenzen herumgehen kann. Zum Beispiel können Sie nach dem Vergleich von HDFS und Cassandra entscheiden, einen Data Lake auf letzterem zu betreiben. Warum nicht, wenn Sie einen Data Lake ausschließlich als Staging Zone für IoT-Daten planen und wissen, wie Sie in Cassandra fehlende Joins kompensieren können?

Data Lake als Service

Amazon Web Services, Microsoft Azure, Google Cloud Platform haben ein entsprechendes Angebot – ein Data Lake als Service. Tatsächlich wäre es für einen Neuling schwierig, die Unterschiede zwischen diesen drei Angeboten zu erkennen. Im Wesentlichen sind sie sich ziemlich ähnlich: Sie benötigen ein AWS/Azure/GCP-Konto, Ihre Daten und die Bereitschaft, den Dienst zu bezahlen. Im Gegenzug erhalten Sie eine vordefinierte Reihe von Technologien, die in der Cloud bereitgestellt werden und Wartungskopfschmerzen beseitigen. Der Technologie-Stack hinter der Szene gilt als selbstverständlich, obwohl die Funktionen, die sie ausführen, gewöhnlich sind: Speicherung, Verarbeitung, Streaming und Analytik. Wir planen, einen einzelnen Blogbeitrag zu schreiben, der die Vor- und Nachteile dieser drei Angebote aufzeigt. Also bleiben Sie dran.

Was sind die Hauptfaktoren, die die Wahl der Technologien für einen Data Lake beeinflussen?

  • Die Arten von Daten, die gespeichert und verarbeitet werden müssen
  • Die Zonen eines Data Lake (nur eine Staging Zone oder eine Landing Zone und ein analytisches Sandbox)
  • Skalierbarkeit
  • In-Cloud- oder On-Premises-Lösung
  • Integration mit den vorhandenen Komponenten der IT-Architektur.

Sollten wir uns am Ende für nur eine Technologie entscheiden?

Nein, Sie sollten nicht. Unsere Praxis zeigt, dass Data-Lake-Lösungen implementiert werden, indem sie auf mehreren Technologien basieren. Um eine Geschäftsaufgabe zu lösen, können Big-Data-Berater für jede Zone eines Data Lake eine separate Technologie auswählen.

Gibt es eine bevorzugte Technologie für einen Data Lake?

Hadoop Distributed File System ist die beliebteste, aber nicht die einzige verfügbare Technologie. Seien Sie jedoch vorsichtig und beruhen Sie Ihren Wahl auf Ihren Geschäftszielen und dementsprechend auf den Anforderungen an Ihre zukünftige analytische Lösung und nicht auf der Popularität eines Frameworks.

Wenn ich einen Data Lake nicht von Grund auf neu erstellen möchte, kann ich mich für eine gebrauchsfertige Lösung entscheiden?

Ja, Sie können. Amazon Web Services, Microsoft Azure und Google Cloud Platform bieten einen Data Lake als Service an. Was von Ihnen benötigt wird: Ihre Daten und Ihre Abonnement- und Servicegebühren. Und Sie erhalten einen Data Lake, der einfach und schnell zu implementieren ist.

Big Data ist der nächste Schritt zu Ihrem Erfolg. Wir helfen Ihnen, den richtigen Ansatz zu finden und volles Potenzial von Big Data zu entfalten.



Source link

Corsair HS65 Surround review: A lightweight, dependable gaming headset


Pros

  • Great sound quality
  • Dolby 7.1CH virtual surround sound
  • Good microphone
  • Comfortable
  • PC and console compatibility

Cons

  • Can’t enable surround sound with consoles
  • No windscreen for microphone is included
  • SoundID test is confusing

Intro 

The Corsair HS65 Surround is a simplified, midrange gaming headset that offers a quality build, excellent audio, and no-nonsense connectivity. 

It’s compatible with Windows and MacOS computers, mobile devices, and most game consoles so you can connect it to whatever you use to play games. 

And while it may not provide as much control over your audio input and output as other headsets on the market, what it lacks in special features, it makes up for by providing a quality, comfortable gaming experience.

Specifications

Audio Dolby 7.1CH surround
Connectivity USB module, 3.5mm AUX
Color Black, white
Material Plastic, faux leather
Weight 4.5 ounces (127.5 grams)
Dimensions 6 x 8 x 3 inches (50 x 200 x 75 mm)
Compatibility Windows, MacOS, PlayStation 4/5, Xbox One/ Series X|S, Nintendo Switch, iOS, Android
Cable length 6 feet (1.8 meters)
Driver size 50mm

The left side of the Corsair HS65 Surround headset worn by Taylor Clemons playing a game on their PS5

Taylor Clemons/ZDNET

Pricing

The HS65 Surround retails for $79.99 (£79.99, AU$119, CA$99), which is a bit on the high side for a wired headset, but still fairly affordable for most gamers. With this price tag, it’s on the same level as models like the Razer Kraken V3 X ($69.99) and the HyperX Cloud Alpha ($99.99); both of which are designed for long-lasting quality, comfort, and immersive audio. 

The HS65 Surround’s price also seems on the high side since it doesn’t have many of the bells and whistles that other, similarly priced models include, like RGB lighting and audio equalizer settings. But I certainly feel that the level of comfort the headset provides and the quality of its build more than make up for the no-nonsense design.

Comfort and quality

A back view of Taylor Clemons wearing the Corsair HS65 Surround headset and playing Shredder's Revenge on the PS5

Taylor Clemons/ZDNET

The HS65 Surround is incredibly lightweight, coming in at just 4.5 ounces. It also doesn’t have a lot of clamping pressure around the ear cups, so if you wear glasses (either prescription or blue light filtering) or have a larger head, you’ll stay fairly comfortable. The ear cups and headband both have plenty of foam padding and a faux leather shell that together make the entire unit feel more premium — and the faux leather makes it super easy to keep the headset clean. The ear cups also rotate outward, allowing the headset to lie flat, which is great for when you need to wear it around your neck and for storage.

Taylor Clemons wearing a multicolored striped shirt and the Corsair HS65 Surround headset while they play a game on the Nintendo Switch

Taylor Clemons/ZDNET

The attached microphone flips up and out of the way when you don’t need it, though I do wish it were removable since I use a separate microphone for game chat and work calls. The microphone doesn’t come with any sort of windscreen to prevent audio clipping, but this is a minor complaint; you can get a 10-pack of generic windscreens on Amazon for about $20 if you really need to filter out unnecessary sound.

The entire headset is made of plastic, which contributes to its lightweight feel, but it still feels like a solid and dependable headset compared with, for example, the Turtle Beach Recon 500, which has a similar, all-plastic build and feels very cheap and flimsy. I wore the HS65 Surround for around 10 hours every day between work and quick gaming sessions on both my PC and two consoles (PlayStation 5 and Nintendo Switch). And the headset always felt like a secure fit and very comfortable, even while I was wearing my blue light filtering glasses.

Audio and connectivity

Taylor Clemons wearing the Corsair HS65 Surround headset and playing Bayonetta on the Nintendo Switch

Taylor Clemons/ZDNET

The HS65 Surround connects to your computer or console via a 3.5mm audio jack or USB adapter. The 3.5 mm audio jack is great for plugging into controllers for more freedom of movement or more simplified connectivity for PC gamers who may not have enough USB ports to plug in a headset. The USB adapter is what enables Dolby 7.1CH surround sound for the headset, which is great for when you need more accurate, somewhat spatial audio for games like Apex Legends where pinpointing audio cues can mean the difference between victory and defeat. 

Unfortunately, the virtual surround sound is only compatible with Windows and Mac computers, which means that gamers who mainly play on consoles will miss out on one of the HS65 Surround’s biggest draws. 

A screenshot of the audio settings for the Corsair HS65 Surround headset within the iCUE desktop app

Taylor Clemons/ZDNET

However, even without Dolby enabled, the audio quality you get from the headset is excellent. Low bass tones, midrange sounds, and even high-pitched notes all sound crystal-clear even at higher volumes. Even with the volume cranked up as high as it can go, the audio drivers never sound blown out, crunchy, or garbled; so if you need to have your game audio set to a high volume, you’ll never miss a line of dialogue or audio cue due to distortion. 

In fact, I actually prefer to keep the surround sound feature turned off while I watch videos, make video calls, and play games. While the 7.1CH virtual surround sound does make it easier to pinpoint cues like gunfire and footsteps, it also adds a bit of an echo effect to most audio that can be grating after a while, especially with dialogue. 

I found that enabling the Dolby surround sound worked best when listening to music, since the echo effect gave songs and albums a similar sound to high-end studio recordings; it was easier to hear layered harmonies and backing vocals, which let me appreciate everything from new songs that popped up on my Spotify playlists as well as discovering how intricate old favorites actually are. 

Also: The best cheap gaming headsets for immersive audio on a budget

Normally, I would have a separate section to talk about how the headset works with Corsair’s iCUE desktop app, but the app is really only needed to turn the Dolby surround sound on and off. So you don’t necessarily have to download the iCUE app in order to use the headset. I do wish that Corsair had taken a page from the HyperX Cloud Alpha S, which has in-line controls for its own virtual surround-sound module, allowing you to skip downloading the Ngenuity app altogether. Since the HS65 Surround only uses the iCUE app for toggling the 7.1CH surround sound on and off, it would have made more sense to have onboard or in-line controls rather than making users download an app they aren’t going to use very often.

A screenshot showing individual results for the Corsair iCUE SoundID test

Taylor Clemons/ZDNET

It’s worth noting the iCUE app is also the only way to set up personalized audio profiles with SoundID. The app lets you choose a music loop, and then presents you with a series of filters and settings to choose your preference for. The results are a bit confusing: A few of the settings don’t really sound like they’ve made a difference, and instead of explaining how your choices affected the final profile, it just shows a series of shapes with one highlighted to indicate your personalized profile. I would have much preferred a short text description.

Bottom line 

Taylor Clemons wearing the Corsair HS65 Surround headset with the microphone flipped down while they play

Taylor Clemons/ZDNET

The Corsair HS65 Surround is a dependable, solid midrange gaming headset that’s great for both PC and consoles. The simple plug-and-play connectivity makes it easy to set up the headset with whatever you use to play games, while the 3.5mm audio jack allows you to use the headset with mobile devices as well. With the included USB adapter you can enable Dolby 7.1CH virtual surround sound for more immersive audio, though it only works with PC and Mac computers, not consoles. And while you don’t necessarily need to download the iCUE app to use the HS65 Surround, audiophiles might want to consider doing so since it allows you to create a personalized sound profile.

Alternatives to consider 

The HyperX Cloud Alpha is an excellent, midrange gaming headset. The aluminum frame gives it strength and durability without adding a ton of weight, making it comfortable enough to use even during marathon gaming sessions. The included microphone is detachable so you can use something like the Quadcast S or other, separate mic for streaming, in-game chat, and Discord. It’s also compatible with most consoles, mobile devices, PCs, and even Macs.

This headset from Logitech is very similar to the HS65 Surround. With 50mm audio drivers, DTS Headphone:X audio, and a flip-to-mute microphone, the G432 can provide clear voice chat with friends as well as rich, clean in-game sound. The ear cups and headband are made with a soft, faux leather for a premium look as well as long-term comfort during weekend gaming sessions.

This updated version of the original Kraken headset is designed to provide a quality gaming experience without breaking the bank. It also features 7.1CH virtual surround sound for more immersive audio as well as a lightweight design for lasting comfort. The built-in microphone features a cardioid pickup for crystal-clear chat and can easily be positioned to stay out of the way or right where you need it.



Source link

Big Data in der Produktion: ein Leitfaden zum Starten


Ohne Zweifel sind Anwendungsfälle von Big Data in der Produktion beeindruckend. Nachdem Sie das erfahren haben, können Sie sich sofort beeilen, die Macht von Big Data zu ergreifen, um Ihre Konkurrenz zu überholen. Aber es ist nicht so einfach. Bevor Sie mit beiden Händen zugreifen, Ihr Big-Data-Projekt zu starten, müssen Sie die Haken kennenlernen, die Sie erwarten können. In diesem Blogbeitrag finden Sie einen Leitfaden, der Ihre “Fahrt” bei der Einführung von Big Data so reibungslos wie möglich macht.

Leitfaden für Big Data in der Produktion

Um sich auf ein Big-Data-Projekt gut vorzubereiten, müssen Sie den richtigen Ansatz finden. Anstatt von der Idee über Big Data besessen zu sein und sich zu beeilen, das Projektbudget freigeben zu lassen und später keinen Wert daraus zu ziehen, sollten Sie zuerst die Grundlage für die mögliche zukünftige “Neuheit” legen. Die folgenden Schritte, die charakteristisch für Business-IT-Alignment (im Sinne Ausrichtung zwischen IT und Geschäft) sind, zielen darauf ab, Ihnen dabei zu helfen. Lassen wir also diese Schritte aus der Perspektive betrachten, die Produktqualität in einem Unternehmen zu verbessern.

Schritt 1. Nachdem Sie genug über die Möglichkeiten von Big Data gelesen haben, untersuchen Sie Ihre Geschäftsstrategie, um zu verstehen, welche Ziele in dieser Stratefie mithilfe von Big Data erreicht werden können.

Schritt 2. Als IT-Experte (-Expertin) sollten Sie weitere Details zu Produktionsproblemen und -anforderungen in Ihrem Unternehmen kennenlernen und klären. Es ist empfehlenswert, mit der technischen Leitung in Ihrer Fabrik zu sprechen und zu erfahren, wie der Qualitätsverbesserungsprozess abläuft. Das ist höchst wahrscheinlich, dass sich der Prozess als problematisch erweist und es noch keine Lösung gefunden wurde. Dort erklären Sie (aber vorsichtig, ohne allzu viel IT-Slang zu sprechen), dass solche Herausforderungen mit einer sogenannten Big-Data-Analyse gelöst werden können.

Schritt 3. Versuchen Sie, die Zustimmung der technischen Leitung zu erhalten, um (falls erforderlich) dem Top-Management des Unternehmens zu beweisen, dass sie Big Data wirklich benötigen. Und warnen Sie auch davor, dass die Beteiligung der technischen Abteilung später auch notwendig sein wird, um Datenanalysten zu helfen, die benötigten Details des Produktionsprozesses zu verstehen.

Schritt 4. Bestimmen Sie, wie viel ein Big-Data-Projekt kosten kann, und sprechen Sie mit Ihrem Top-Management über die Einführung von Big Data und dessen Auswirkungen.

Los!

Gleich am Anfang können Sie Möglichkeiten von Big Data basierend auf komplexen Aufgaben nicht testen. z. B. ist es kaum möglich sofort in den Weltraum zu gehen, nur in ein paar Tagen nach der Entscheidung, Astronaut zu werden. Produktionsunternehmen sollten mit einem einfachen Projekt beginnen (zum Beispiel versuchen, eine stabile Ausgabequalität in einem Impfstoffwerk zu erreichen). Ein einfaches Projekt am Anfang zeigt Ihnen, wie Big Data Ihre Probleme mit geringen Risiken und Investitionen lösen kann. Das wird sich wahrscheinlich wiederum positiv auf die Meinung Ihres Top-Managements in Bezug auf Big Data auswirken und sie dazu ermutigen, weitere Investitionen in Big Data zu planen (für ernstere analytische Projekte). Ein übermäßiges komplexes und risikoreiches Projekt am Anfang, wie die Neuorganisation des gesamten Produktionsprozesses in dem Impfstoffwerk, kann Ihr Top-Management gegen Big Data für immer aufhetzten, weil die hohen Investitionen des Projekts leicht spurlos verschwinden können.

Und wenn wir auf einer mehr globalen Ebene über irgendein Big-Data-Projekt sprechen, sollte solcher Projekt immer in “leichtverdauliche” Phasen aufgeteilt werden, die getrennt behandelt werden müssen. Hier schlagen wir die folgenden Phasen für Ihre Big-Data-Abenteuer vor:

  • Datensammlung.
  • Verwendung von einfachen analytischen Algorithmen.
  • Einsatz von ausgeklügelten analytischen Methoden.
  • Eine schrittweise Automatisierung Ihres Produktionsmanagements.

Datensammlung

Lange bevor eine Analyse stattfinden kann, müssen Sie mit der Datensammlung beginnen. In einigen Fällen ist das überhaupt kein Problem: Sie müssen nur Sensoren auf Ihren Produktionsanlagen einsetzen/hinzufügen, Datenspeicher vorbereiten und den Strom von “frisch geschnittenen” Daten genießen.

In anderen Fällen, beispielsweise wenn Ihr Produktionszyklus monate- oder sogar jahrelang dauert, kann das sich als schwierig erweisen, weil Ihnen Informationen darüber fehlen können, wie die Parameter Ihres Produktionsprozesses den Output beeinflussen. Und ohne dieses Wissen ist es wirklich ein Schuss in der Dunkelheit. Aber seien Sie  nicht so aufgeregt: es gibt Möglichkeiten, dagegen anzukämpfen. Versuchen Sie zum Beispiel, sich nicht auf den gesamten Produktionszyklus zu konzentrieren. Richten Sie stattdessen Ihre Aufmerksamkeit auf einen Teil Ihres Produktionsprozesses (z. B. Inokulation in der Käseproduktion), sammeln Sie Daten darüber, analysieren Sie diese, um zu sehen, wie dieser Prozess verbessert werden kann.

Vom analytischen Babyschritten zu großen und sicheren Big-Data-Schritten

Wenn sich Ihre Big-Data-Lösung weiterentwickelt, können Sie verschiedene Ebenen von Analyseergebnissen erhalten, die sich auf diese Phasen beziehen:

  1. Zunächst können Sie relativ einfache Big-Data-Analysen durchführen, um gezielte Änderungen in Ihren Produktionsprozessen vorzunehmen (z. B. um die Produktqualität zu verbessern).
  2. Dann können Sie Ihre Daten genauer analysieren, um Wege zu finden, Ihre Geschäftsprozesse zu ändern. Zum Beispiel haben Sie früher eine reaktive Wartung durchgeführt und mit Big Data starten Sie, eine  proaktive Wartung auszuüben.
  3. Wenn die Zeit kommt, können Sie Ihr Geschäftsmodell sogar neu gestalten, indem Sie mithilfe von Big-Data-Analysen einen besseren Weg zu solchen Änderungen finden (zum Beispiel, Sie entscheiden sich, näher zum Kunden zu sein, indem Sie Autos zu einem intelligenten vernetzten Produkt machen; mit montierten Sensoren  analysieren Sie erfasste Daten von Autos im Einsatz und bieten After-Sales-Services).

Im Anfangsstadium benötigen Sie nur die gebräuchlichsten Analysemethoden wie Korrelationen und Regressionsanalysen. Und wenn Ihre Big-Data-Kompetenzen und -bedürfnisse wachsen, werden analytische Methoden immer aufwendiger. Mit der Zeit werden Predictive Analytics und maschinelles Lernen “eingestellt”. Und, wie weit Sie sich vorstellen können, wenn Sie einfache Korrelationen hilfreich finden, werden komplexe Analysemethoden dazu führen, dass Sie sich mit neuen Möglichkeiten schwindelig fühlen werden.

Automatisierung des Produktionsmanagements

Die Automatisierung Ihres Produktionsmanagements ist wahrscheinlich die ausgeklügelste Art, Big Data in Produktionsprozessen zu verwenden. Das Konzept des automatisierten Produktionsmanagements ist relativ einfach: ihre historischen und eingehenden Sensordaten werden in Echtzeit analysiert und die Steuerungsanwendungen senden gezielte Befehle an die Aktoren in Ihren Maschinen und Anlagen.

Ein gutes Beispiel für eine Automatisierung des Produktionsmanagements ist der Fall bei den Windkraftanlagen von General Electric. Sensoren liefern Daten zur Energieerzeugung und Windrichtung, demzufolge wird die Blattverstellung (Pitchregelung) geändert, um den Wirkungsgrad der Windkraftanlage zu optimieren.

Ein Beispiel, um es deutlicher zu machen

Angenommen, Ihr Unternehmen produziert Babynahrung und entscheidet sich für Big Data. Als Erstes müssen Sie die erforderliche Expertise erwerben, die Sie bei der Einführung eines Projektes unterstützt (hier wäre es eine gute Wahl, wenn Sie viel lesen und Big-Data-Berater einladen würden). Und nachdem Sie ein tief greifendes Verständnis für Big Data gewonnen haben, stellen Sie die benötigten Mitarbeiter ein und starten die Datensammlung (Einsatz/Hinzufügen von Datensensoren in Ihrer Produktion und Vorbereitung des Datenspeichers).

Stellen wir uns um des Beispiels willen vor, dass die Chargen von Ihrer Babynahrung systematisch mehrmals im Monat erheblich an Qualität verlieren. Jetzt können Ihre Big-Data-Mitarbeiter (zusammen mit den Fertigungsingenieuren) herausfinden, was diese Qualitätseinbußen verursacht. Und sie stellen fest, dass Ihr Produktionsprozess die Schwankungen in der Qualität der Rohstoffe (Inhaltsstoffe für Babynahrung) nicht berücksichtigt. Wenn die Qualität der Inhaltsstoffe geringer ist, ist die Maschine nicht “eingestellt”, eine bessere Ausgabequalität zu erhalten (nehmen wir an, Sie passen Temperatur und Garzeiten nicht an). Darüber hinaus finden sie auch eine Möglichkeit, Ihre gesamten Produktionszeiten zu reduzieren. Diese Big-Data-Anwendung (bessere Qualitätssicherung) kann das gute erste Projekt sein.

Die Erkenntnisse, die schnell und kostengünstig gewonnen werden, steigern das Interesse von Ihrem Unternehmen an weiteren Big-Data-Möglichkeiten und komplexeren Analysealgorithmen. Und in einiger Zeit beginnt Ihr Unternehmen damit, Predictive Analytics, Verschleißanalysen und maschinelles Lernen zum Einsatz zu bringen. Unter anderem ermöglicht es die proaktive Wartung durchzuführen, wodurch das Personal auf alarmierende Trends auf der Produktionsebene reagieren kann, bevor es zu echten Schäden kommt.

Und wenn die Zeit kommt, global weiter zu expandieren, entscheidet sich Ihr Unternehmen für Franchising und nutzt Ihre Big-Data-Kompetenzen, um die Qualität von Babynahrung bei all Ihren Franchisenehmern zu gewährleisten und zu kontrollieren.

Wenn Sie damit anfangen, Big Data einzuführen, wird es einige Hindernisse auf dem Weg geben (nehmen wir an, im Projektmanagement). Aus diesem Grund müssen Sie auf Management-Herausforderungen achten, die Big Data in der Produktion mit sich bringen kann:

1. Mangel an eigenen technischen Fähigkeiten.

Sie sollten das gesamte Einführungsprojekt nicht vollständig auslagern. Sonst wird es schwierig sein, das dringend benötigte Big-Data-Verständnis zu erlangen. Darüber hinaus ist Outsourcing kein Ausweg, denn – gerade in frühen Phasen – Sie müssen viel experimentieren. Und es ist einfacher, wenn Ihre „interne“ Arbeitskräfte beteiligt sind. Deshalb ist es ganz selbstverständlich, neue qualifizierte Tech-Mitarbeiter einzustellen oder das alte Personal zu schulen.

Bevor Sie konkrete Maßnahmen ergreifen, sollten Sie sich an das Big-Data-Beratungsteam wenden, weil es die Beschwerlichkeiten in Big-Data-Projekten erleichtern und zum Verständnis von Big Data beitragen kann. Aber bevor Sie zum nächstgelegenen Beratungsanbieter gehen, müssen Sie etwas wissen: es ist nur von Vorteil, wenn Sie den Wissenstransfer an Ihre technischen Mitarbeiter organisieren.

2. Fehlende Betriebsingenieure im Team.

Nicht nur Entwickler arbeiten mit Big Data. Ihr IT-Team muss eng mit Betriebsingenieuren zusammenarbeiten. Erstens, weil das Team Ihre Produktionsprozesse verstehen muss und Betriebsingenieure dabei helfen können. Zweitens, weil Ihre Ingenieure selbst wertvolle Möglichkeiten sehen können, die Produktion und das Management zu verbessern, wenn sie allgemeine Big-Data-Möglichkeiten erforschen. Sie sollten also sicherstellen, dass Ihr Big-Data-Team über eine ausreichende Anzahl an qualifizierten Betriebsingenieuren verfügt.

3. Widerstand gegen  neue Technologien.

Einige Mitarbeiter – wir hoffen, der kleinere Teil – werden wahrscheinlich Big Data widerstehen. Und es ist nichts Persönliches: für Gewohnheitsmenschen ist es einfach bequemer, die alten Technologien zu verwenden. Die Schulung Ihrer Mitarbeiter sowie die Steuerung bei dem Einsatz der neuen Lösung können dazu beitragen, diese Herausforderung zu bewältigen.

Lassen wir uns noch einmal üben

Um zu beginnen, Big Data in der Produktion einzusetzen, müssen Sie:

den richtigen Ansatz für Ihr Big Data finden; sorgfältig Ihre Geschäftsanforderungen analysieren und einen Weg finden, um sie mithilfe von Big Data zu erfüllen und niemals Trends nur aus Spaß verfolgen.

Ihre Einführung von Big Data sorgfältig planen; nicht gleich von Anfang an zum schwierigsten Teil springen. Ein kleines Projekt finden, um Big Data zu testen. Daten aggregieren, einfache Algorithmen testen und nur dann versuchen, wagemutigere Projekte umzusetzen.

– auf Management-Herausforderungen achten; ein gründliches Big-Data-Verständnis gewinnen, das Projekt nicht vollständig auslagern; eine benötigte Anzahl von Betriebsingenieuren engagieren.

Big Data ist der nächste Schritt zu Ihrem Erfolg. Wir helfen Ihnen, den richtigen Ansatz zu finden und volles Potenzial von Big Data zu entfalten.



Source link

Flexible hours or a four-day work week? Here’s the benefit employees want most


remote-working-screen

Image: Getty Images/Jasmin Merdan

The pandemic changed the work environment entirely, establishing remote work and hybrid work models as new work alternatives. These changes have impacted what employees valued the most from their employers: a study conducted by Remote shows that 75% of workers consider flexible working hours the most important employee benefit when considering a job move in 2022. 

Remote’s survey of 10,000 workers found that flexible work hours ranked higher than company-sponsored retirement plans or pensions, early finish on Fridays, a 4-day working week and family health insurance, which came in last, with 62% of employees ranking it as the most important benefit. 

SEE: Want flexible working or better benefits? Here’s how to negotiate with your boss

The rise of remote work over the pandemic has created new opportunities for global talent to work from anywhere, and employees remain reluctant to go back to the office full-time – despite the insistence of some employers.

The preference towards flexible work hours is felt amongst all employees regardless of gender, Remote found, with 78% of female employees and 74% of male employees wanting flexible hours to be provided by their employer. Job function also did not play a factor in the preference, as employees in almost every job function want flexible work hours, according to the study.

However, there was variation in preferences amongst age groups. Gen Zs and Millennials, for example, valued face-to-face team building more than any other generation. Well-being and mental health were also highly valued by these generations, who favoured access to mental health coaching the most (58%).

SEE: Digital presenteeism is creating a future of work that nobody wants

Baby boomers’ priorities were slightly different, with company-sponsored retirement plans (80%) topping their list as the most desired work perk.   

Understanding what benefits employees prefer during these changing times will be critical to helping employers retain workers at a time when companies are struggling to fill growing talent gaps, said J Michael McMillan, manager of benefits at Remote.

“Without a benefits stack that speaks to the needs of a modern workforce, companies are putting themselves at a huge disadvantage. There’s a shortage of highly skilled and highly specialized labor, and it’s important for companies to be able to support their people everywhere and in a way that makes them want to stick around,” said McMillan.



Source link

Die Analyse von Sensordaten in der Produktion


Schauen Sie auf irgendein elektrisches Gerät vor Ihnen – es ist höchstwahrscheinlich, dass es Sensoren enthält. Und nicht nur elektrische Geräte: heute sind auch Bäume und Gebäude mit Sensoren ausgestattet. Und sie sind hier aus einem bestimmten Grund: Menschen schöpfen Wert aus ihren Lesungen. Wenn Sie also glauben, dass Sensoren in Ausrüstung bei Ihren Fabriken potenziell auch einen Gewinn bringen, haben Sie recht. Aber das bloße Gefühl reicht nicht aus. Bevor Sie sich an die Spezialisten für eine Big-Data-Beratung wenden, müssen Sie die Grundlagen der Sensoranalyse verstehen, um einen echten Nutzen aus Sensordaten zu ziehen. Und genau darüber finden Sie Informationen weiter unten.

Sensordatenanalyse in der Produktion

Das “Warum”

Warum Sie Sensordaten analysieren sollten, hängt davon ab, was genau Ihr Unternehmen benötigt. Gewöhnlich analysieren Hersteller Sensordaten, um Prozesse zu überwachen/optimieren oder Produkte zu entwerfen.

1. Überwachung

Die Überwachung setzt in der Regel die folgende Vorgehensweise voraus: Sie erstellen ein Fehlermodell, um einen Ausfall definierende Parameter zu bestimmen, dann analysieren Sie Sensordaten, erkennen fehlerhafte Muster anhand des Modells und korrigieren sofort Fehler, um den normalen Ablauf Ihrer Prozesse wiederherzustellen.

An einem bestimmten Beispiel würde es so aussehen. Ein Hersteller von Kunststoffprodukten, der Sensoren an seinen Geräten hat, kann alle Phasen seines Produktionsprozesses überwachen. Wenn also die Temperatur des geschmolzenen Kunststoffs einen maximal zulässigen Wert erreicht, kann man die Temperatur des Kunststoffs senken und dadurch einen Oberflächendefekt auf dem Endprodukt verhindern. Das ermöglicht, die mit mangelhaften Waren verbundenen Kosten zu minimieren und eine bessere Qualitätssicherung zu erreichen.

Die Prozessüberwachung gibt auch eine gute Möglichkeit, die vorausschauende Wartung in einer Fabrik in Gang zu setzen (durch Predictive Analytics). Sensordatenanalysen können Ihr Wartungsteam vor fehlerhaften Mustern in der Produktion warnen. Und das ermöglicht, die Anlagen, die bald ausfallen können, rechtzeitig zu reparieren und teure Ausfallzeiten zu vermeiden.

2. Optimierung

Die Optimierung von Produktionsprozessen bedeutet, den gesamten Produktionszyklus (oder einen bestimmten Teil davon) zu analysieren, wichtige beeinflussende Parameter zu identifizieren und diese abzustimmen, sodass die Ausbeute erhöht, der Output stabilisiert oder die Qualität verbessert werden.

Nun schauen wir uns an, wie es für einen Reifenhersteller funktionieren kann. Nach der Analyse von Sensordaten zeigt ihr Big-Data-Analyse-Tool eine Besonderheit im Prozess. Wenn ein Reifen 6% mehr Schwefel enthält und die Temperatur des Dampfs, der in den Ballon der Reifenform gepumpt wird, um 9% niedriger ist, ist die Ausgabequalität um 12% höher als durchschnittlich. Das Analyseteam stellt außerdem fest, dass die Einsparung von Kosten für Dampfheizung die zusätzlichen mit Schwefel verbundenen Ausgaben überwiegt. des Weiteren: je niedriger die Temperatur des Dampfes ist, desto länger dauert es, bis sich die Reifenformen verschleißen. Der Hersteller stimmt mit dieser Erkenntnis dementsprechend seine Schlüsselparameter in der Produktion ab und kann als Ergebnis gleichzeitig Geld sparen und Qualität verbessern.

3. Produktdesign

Unter Berücksichtigung der Ergebnisse von Sensoranalyse und der Leistungsmerkmale der schon verwendeten Produkte können Hersteller bessere Produkte entwerfen.

Betrachten wir als Beispiel die Hersteller von Smartphones. Um neue Modelle zu entwickeln, verwenden sie neben anderen Erkenntnissen über Design auch Sensorendaten, die auf getesteten Prototypen und Smartphones, die bereits im Einsatz sind, installiert werden. Die Daten von Prototypen zeigen, ob der Hersteller aus technischer Sicht etwas Gutes gestaltet hat. Und die Im-Einsatz-Sensoren zeigen, welche Lücken von früheren Modellen behoben werden müssen und auf welche nicht so beliebten technischen Features man verzichten kann.

Das “Wann”

Wann Sie Ihre Sensordaten analysieren, muss das eigentlich auf den spezifischen Aufgaben basieren, die Sie durchführen müssen. Vielleicht denken Sie, es wird nur einmal reichen, wie bei einer einmaligen Prozessoptimierung. Aber nachdem Sie den süßen Big-Data-Analytics-Kuchen zusammen mit dem Gewinn, den er bringt, probiert haben, werden Sie wahrscheinlich mehr wünschen. Und es gibt zwei Modelle, die beschreiben, wann Ihre Sensordaten analysiert werden: Ad-hoc und in Echtzeit.

1. Ad-hoc-Sensorenanalyse

Ad-hoc-Analyse von Sensordaten bedeutet, dass Sie Ihre Sensordaten nur bei Bedarf  auf Anforderung einsehen können. In der Regel wird solche Analyse von einem Team von Datenwissenschaftlern oder Analysten durchgeführt.

Hier ist ein Beispiel. Ein Chemiehersteller ist unsicher, wie häufig er seine industriellen Luft- und Wasserfilter wechseln muss. Das Unternehmen tut es alle 3 Monate, wie die Anleitung sagt. Er weiß aber nicht, ob die Berechnungen des Filter-Herstellers die Besonderheiten seiner chemischen Produktion berücksichtigen, was die Emission giftiger Dämpfe voraussetzt.

Die Analyse der Daten von Anlagen- und Filtersensoren zeigt, dass die Chemiefabrik eigentlich jeden Monat Filter wechseln sollte. Außerdem sollte man einen anderen Filtertyp wählen, weil derjenige, der verwendet wird, nicht gut genug ist, um toxische Abfälle zu handhaben. Dadurch kann die Fabrik einen großen ökologischen Skandal und eine Geldstrafe der Regierung vermeiden.

2. (Nahezu)-Echtzeit-Sensoranalyse

Im Gegensatz zu Ad-hoc strömt allein der Name “Echtzeit-Analyse” den Hauch von Schnelligkeit aus. Und das geschieht, ohne Absicht irrezuführen: Echtzeit-Sensoranalysen liefern einen konstanten Fluss von Analyseergebnissen.

Laut diesem Artikel verstehen aber verschiedene Unternehmen das Wort “Echtzeit” unterschiedlich. Für einige kann das ein Intervall von 40 Millisekunden zum Sammeln und Analysieren von Daten bedeuten. Während für andere ein Intervall von 30 Minuten auch relativ in Echtzeit wäre. Und es gibt viele Probleme, die aus der Sensordatenanalyse hervorgehen, und das richtige Intervall für die Echtzeit-Analyse zu wählen, ist eines davon.

Ein perfektes Beispiel für das Intervall von 40 Millisekunden wäre die Echtzeit-Analyse einer Windkraftanlage. Während sie Daten mit einer Geschwindigkeit von 40 Millisekunden sammelt und analysiert, verwendet das Analytics-Tool sie zum Beispiel, um eine optimale Art und Weise zu finden, den Pitch (deutsch: die Steigung) der Rotorblätter zu verstellen. Und es ist leicht, so eine hohe Geschwindigkeit der Datenerfassung zu begründen: es hängt von der veränderbaren Natur des Windes ab.

Während für das Intervall von 30 Minuten ein Solarpark als Beispiel angeführt werden könnte, wäre es definitiv zu viel, alle 40 Millisekunden Daten über solare Energieumwandlung zu übermitteln. Wenn sich der Sonnenstrahlungswinkel mit der Zeit ändert, kann das Solarmodul seine Position dem Sonnestand anpassen, um mehr Energie umzuwandeln. Unter Berücksichtigung dieser Tatsache könnte ein Datensammlungs- und Analyseintervall von 30 Minuten nützlich sein.

Das “Wie”

Wie Sie Ihre Sensordaten analysieren, hängt das auch von Ihren speziellen Bedürfnissen, Aufgaben und Kontext ab. Aber es gibt einige Best Practices. Und im Laufe der Zeit haben unsere Big-Data-Beratungsexperten eine Architektur entwickelt, die für nahezu jede Sensordaten-Analyselösung geeignet ist. Es kann einer IoT-Architektur ähneln.

Sensordatenanalyse in der Produktion

Der Ausgangspunkt ist ein Sensor. Wenn Daten von ihrem “Host” gesammelt und an Gateways übertragen werden, werden die Daten gefiltert und in einen Data Lake (Datensee) verschoben.

Der Data Lake ist ein Speicher, der Daten in ihrem ursprünglichen Format aufnimmt, bis Sie diese analysieren müssen. Dann werden die Daten extrahiert, transformiert (“gut gekleidet und gepflegt”) und in ein Big-Data-Warehouse geladen.

Das Big-Data-Warehouse ist der Ort, an dem die gereinigten, gut gekleideten und gepflegten Daten gespeichert und für die Analyse verwendet werden. Neben einem Data Lake erhält ein Big-Data-Warehouse Daten auch von den Steuerungsanwendungen, die die Aktoren steuern. Es speichert auch Daten über Ihre Maschinenkonfigurationen, die Orte, an denen bestimmte Sensoren eingesetzt werden, und alle anderen Informationen, die Ihre Sensordaten in Zusammenhang setzen. Auf diese Weise “weiß” das Warehouse nicht nur, welche Sensoren Daten übertragen, sondern auch, wo sie sind und was Ihr System ihren Aktoren gesagt hat.

Und es gibt natürlich ein Segment für Data Analytics. Hier findet die Analyse selbst statt. Es ist die wahre Quelle von allen wertvollen Geschäftsinformationen, die Sie erhalten können.

Die letzte und “intelligenteste” Form der Sensordatenanalyse ist maschinelles Lernen. Es beobachtet Ihre Sensordaten, bemerkt neue Muster, erstellt neue Modelle für Steuerungsanwendungen und setzt sie um. Auf diese Weise wird Ihre Sensoranalyse immer aktualisiert.

Ein bisschen mehr zu Data Lake vs. Big-Data-Warehouse

Der Hauptunterschied zwischen einem Data Lake und einem Big-Data-Warehouse ist der Ansatz zur Datenspeicherung:

  • Bei einem Big-Data-Warehouse ist alles schwierig: bevor Sie es laden, müssen Sie es filtern, verarbeiten, integrieren und modellieren. Sie müssen den Daten ein richtiges “Aussehen” geben – Form und Struktur. Dieser Ansatz wird Schema-on-Write genannt.
  • Bei einem Data Lake ist das alles einfacher: Sie brauchen nicht viel Aufwand, um Daten vorzubereiten und Daten-Staging zu machen. Sie nehmen diese einfach und laden sie in den Lake. Ohne Mühe. Dieser Ansatz wird Schema-on-Read genannt.

Jetzt können Sie sehen, warum die Speicherung aller Ihrer Daten in einem Big-Data-Warehouse teuer ist: stellen Sie sich vor, wie viele Sensordaten Sie “verfeinern” müssen und wie viel Ressourcen dafür benötigt werden.

Alle Unterschiede zwischen einem Data Lake und einem Big-Data-Warehouse liegen in dieser handlichen Tabelle.

Sensordatenanalyse in der Produktion

Ein bisschen mehr zum maschinellen Lernen

Und so funktioniert’s. Ein Datenwissenschaftler, zusammen mit einem Betriebsingenieur, nehmen wir an, in einer Flugzeugmotorenfabrik, wählen eine Reihe von einflussreichen Prozessparametern aus. Dann durcharbeitet der ML-Algorithmus eine große Menge von Sensordaten für diese Parameter und erstellt Modelle. Bei Flugzeugtriebwerken könnte das Ergebnis etwa so aussehen: Wenn der Druck 18% unter dem Durchschnitt liegt und die Legierung 7% mehr Aluminium enthält, führt das mit 78% Wahrscheinlichkeit zu einer Steigerung der Endproduktqualität. Danach testet das Team das Modell manuell und wenn das Modell gehemigt wird, kommt es in Steuerungsanwendungen zum Einsatz.

Der Hauptvorteil von Maschinenlernmodellen ist Ihre Genauigkeit. Das ist der Hauptgrund für die Rivalität zwischen Herstellungsexperten und ML. Wenn sie sagen, dass die Temperatur 15°C betragen sollte, kann ein ML-Algorithmus feststellen, dass die tatsächlich 15,4°C betragen sollte. Und ein Big-Data-Analytics-Tool wird Ihnen sagen, dass die Differenz von 0,4°C einen erheblichen finanziellen Unterschied machen wird.

Technologien für maschinelles Lernen sind Spark Machine Learning Bibliothek (MLlib), Amazon Machine Learning, Azure ML Studio, TensorFlow, Theano, Torch usw.

Das ‘Also’

Also, um alles zusammenzufassen, denken Sie daran, dass Sie Ihre Sensordaten analysieren können:

  • In regelmäßigen Abständen oder auf Anfrage.
  • Indem Sie Data Lakes, Big-Data-Warehouses und Algorithmen vom maschinellen Lernen verwenden.
  • Um Ihre Prozesse zu überwachen, zu optimieren und neue Produkte zu entwickeln.

Aber in erster Linie denken Sie daran, dass sensorbasierte Big-Data-Analysen Ihr Unternehmen zu etwas Faszinierendem machen können. Und das ist kein leeres Versprechen: es gibt eine ganze Reihe von Anwendungsfällen von Big Data für die sensorgestützte Produktion, die das beweist.

Big Data ist der nächste Schritt zu Ihrem Erfolg. Wir helfen Ihnen, den richtigen Ansatz zu finden und volles Potenzial von Big Data zu entfalten.



Source link

Save $1,930 on this top-spec Lenovo ThinkPad X1 tablet


  • Current Price: $949
  • Original Price: $2879

Our top pick during Lenovo’s doorbuster is the third-generation Lenovo ThinkPad X1 tablet. As with many laptops and tablets, you can choose entry, mid-, or premium specifications when you upgrade to a new device, and this one happens to come with future-proof specifications. These include an 8th-gen Intel Core i7 processor with vPro (1.90GHz, up to 4.20GHz with Turbo Boost), Intel UHD Graphics, 8GB RAM, 256GB PCIe SSD storage, front and rear cameras, fingerprint reader, and a 13″ QHD+ (3000 x 2000) IPS touchscreen display.

The rugged, military-grade tested device can be used as a typical tablet and includes a kickstand, and also comes with the ThinkPad Pen Pro stylus.

Use the eCoupon THINKPADDEAL1.



Source link