Legacy, Storytelling and Community: How INVNT.ATOM™, [INVNT GROUP]’s digital innovation agency, transformed Automobili Lamborghini’s global brand footprint with its Web3 initiatives

Singapore, June 28, 2023 (GLOBE NEWSWIRE) — Across 2022 and 2023, INVNT.ATOM, [INVNT GROUP]'s digital and Web3 Innovation division delivered two historic NFT campaigns in collaboration with Automobili Lamborghini, as the legacy super sportscar leader celebrated their 60th anniversary and entered its hybrid era.

With global features in media outlets such as Forbes, Fast Company, Be in Crypto, and an announcement from Lamborghini's CEO Steve Winkelmann that Lamborghini's sports cars are sold out until 2024, [INVNT GROUP] has concluded two back to back campaigns in partnership with Automobili Lamborghini.

"Lamborghini Ultimate' a world first 1:1 NFT & The Last Aventador Coup in collaboration with contemporary artist Krista Kim and Grammy award winning artist Steve Aoki, and most recently "The Epic Road Trip", an 8–month Web3 initiative with utilities which cultivated a community of global Web3 loyalists around the world. The conclusion of "The Epic Road Trip" marked the brand's 60th anniversary where the Italian marque revealed the "Revuelto", the brand's first dual–powertrain supercar – continuing their commitment to a more sustainable future.

Lamborghini was the first super sports car brand to enter the world of digital collectibles, with their release of digital bitstamps in 2020. In partnership with [INVNT GROUP], two major Web3 initiatives have followed suit, cultivating a new community of a younger tech audience, and established loyalists to mark the hybrid era, as the brand races towards complete electrification by 2030.

[INVNT GROUP] partnered with Steve Aoki and Krista Kim to create an audiovisual collaboration which saw the creation of the world's first 1:1 NFT supercar, auctioning off the physical version of the last ever Aventador Coupe with auction house RM Sotheby's. The NFT paired with the physical sports car sold at an auction price of $1.6M, placing the purchase price in the top 10 new Lamborghinis ever sold.

On the back of the global success and impact of"Lamborghini Ultimate" Lamborghini continued their partnership with [INVNT GROUP] with the launch of "The Epic Road Trip''. This 8–month long campaign showcased monthly prizes and NFT reveals, concluding in a global celebration of the brand's 60th anniversary and the ultimate reveal of the Revuelto. The consequential results of "The Epic Road Trip '' showcased a nod to the brand's transformation, with 10.5x campaign ROI. Collectively, both campaigns have garnered 1.8 billion global editorial media impressions, across 2.4K featured editorial placements, totalling over $17.3M USD of advertising value.

"These results demonstrate how incredibly powerful leveraging Web3 is in any modern marketing strategy," says Scott Cullather, President & CEO of [INVNT GROUP], and CEO of INVNT.ATOM, "These are highly engaged, hands–on collectors with a passion for the Lamborghini brand. By focusing on a curated group of brand loyalists, Lamborghini was able to both deepen its connection with its biggest fans while also welcoming new people to be a part of its timeless heritage and future. As an ultra–luxury brand that sold just 9,233 vehicles in 2022, every boost in purchase intent is worth millions."

"Lamborghini is an aspirational brand, and Web3 is a bridge to people that are dreaming Lamborghini, but also for people that are not familiar with the brand and more familiar with art, design and NFTs. It's an example of how art and design are connected to our brand. And the good thing is that with the NFTs we're able to make sure that this dream is also in the reach for the fan," said Christian Maestro, Marketing Director of Automobili Lamborghini, in Carly Reilly's Overpriced JPEGS Podcast Series with Scott Cullather.

As the brand continues its journey towards complete hybridization of its lineup by 2025, expect further experimentation at the leading edge of community, blockchain and utility.

Driven by [INVNT GROUP]'s "Challenge Everything" mantra backed by world–class storytelling, both campaigns immersed the legacy brand into the world of Web3, whilst also adopting elements of the physical world into the journey. The phygital experiences, told a tale of brand transformation, as Lamborghini fans are given brand new avenues to engage with the legacy brand into the future.

###

About INVNT.ATOM INVNT.ATOM, part of [INVNT GROUP] THE GLOBAL BRANDSTORY PROJECT, is an innovation and brand experience agency devoted to helping global brands chart a course, navigate, activate, and create new opportunities at the digital frontier of Web3. Headquartered in Singapore, the collective of strategists, marketers, creators, programmers, matchmakers, and thought leaders, turn strategies into stories and stories into experiences that engage communities on the global stage. For more information about INVNT.ATOM, visit: www.invntatom.com.

About [INVNT GROUP] [INVNT GROUP] was established as an evolution of the founding global live brand storytelling agency INVNT. Led by President and CEO, Scott Cullather, [INVNT GROUP], THE GLOBAL BRANDSTORY PROJECT represents a portfolio of disciplines designed to help forward–thinking organizations innovate and impact audiences everywhere. The GROUP consists of modern brand strategy firm, Folk Hero; creative–led culture consultancy, Meaning; production studio & creative agency, HEV'; events for colleges and universities, INVNT Higher Ed; digital innovation division, INVNT.ATOM; creative multimedia experience studio, Hypnogram; and the original live brand storytelling agency, INVNT. For more information visit www.invntgroup.com.

Media Kit (High–res imagery and videos)

Attachment


GLOBENEWSWIRE (Distribution ID 8866009)

The Coretec Group to Attend Two EV Battery Conferences as it Increases Awareness of its Endurion Battery Program

ANN ARBOR, Mich., June 28, 2023 (GLOBE NEWSWIRE) — The Coretec Group (OTCQB: CRTG), developers of silicon anode active materials for lithium–ion batteries and cyclohexasilane (CHS) for electric vehicles (EVs), cleantech, and emerging tech applications, will be attending the Plugvolt Battery Seminar and The Battery Show in the coming months. Company leadership will track the latest industry trends and liaise with fellow industry leaders, spreading awareness of the Company's Endurion battery program.

Company leaders will attend the Plugvolt Battery Seminar in Plymouth, Michigan, from July 18–20. This seminar features the latest industry updates from major OEMs, Tier 1 system developers, and battery makers, including Celia Cunningham, Research Engineer at Ford Motor Company, and Tobias Glossmann, Principal Systems Engineer at Mercedes Benz R&D NA. Additionally, Coretec team members will attend the Battery Show North America in Novi, Michigan from September 12–14. The event is North America's largest advanced battery event, hosting hundreds of battery and EV suppliers, as well as prominent educational tracks. Both conferences offer networking opportunities, and interested parties are asked to reach out through Coretec's contact page to schedule a meeting.

"As Endurion continues to make progress, these conferences offer opportunities to engage with industry leaders and decision–makers," said Michelle Tokarz, VP of Partnerships and Development at The Coretec Group. "Both events are ideal for us to share our groundbreaking work on the Endurion program with potential partners, while staying up to date on the latest trends in the industry."

Endurion is Coretec's battery development program, which applies its expertise in silicon nanoparticles to develop silicon–based anodes for lithium–ion batteries that last longer and charge faster than the current industry standard for EVs and other burgeoning applications. To learn more about it, watch the Company's informational video here.

To learn more about The Coretec Group, visit https://thecoretecgroup.com/.

About The Coretec Group

The Coretec Group, Inc. is an Ann Arbor, Michigan–based developer of engineered silicon and is using its expertise to develop silicon anodes for lithium–ion batteries that will charge faster and last longer. This program is call Endurion. Silicon has the theoretical ability to hold up to 10x the amount of lithium ions as compared to traditional graphite. Through its propriety nanoparticle approach, Endurion is loading silicon into the battery anode. A modest increase in silicon will be a game changer that will revolutionize the EV market as well as other energy storage applications.

Additionally, The Coretec Group is also utilizing its engineered silicon to develop a portfolio of engineered silicon products for solid–state lighting (LEDs), semiconductors, and printable electronics industries. The Company continues to develop its C–Space technology for 3D volumetric displays.

For more information, please visit thecoretecgroup.com.

Follow The Coretec Group on:

Twitter "" @CoretecGroupInc
LinkedIn "" www.linkedin.com/company/24789881
YouTube "" www.youtube.com/channel/UC1IA9C6PoPd1G4M7B9QiZPQ/featured

Forward–Looking Statements

The statements in this press release that relate to The Coretec Group's expectations with regard to the future impact on the Company's results from operations are forward–looking statements and may involve risks and uncertainties, some of which are beyond our control. Such risks and uncertainties are described in greater detail in our filings with the U.S. Securities and Exchange Commission. Since the information in this press release may contain statements that involve risk and uncertainties and are subject to change at any time, the Company's actual results may differ materially from expected results. We make no commitment to disclose any subsequent revisions to forward–looking statements. This release does not constitute an offer to sell or a solicitation of offers to buy any securities of any entity.

Corporate Contact:

The Coretec Group, Inc.
Lindsay McCarthy
info@thecoretecgroup.com
+1 (866) 916–0833

Media Contact:

Spencer Herrmann
FischTank PR
coretec@fischtankpr.com
+1 (518) 669–6818


GLOBENEWSWIRE (Distribution ID 8866444)

LeddarTech Lança Amostras de Produção do Software de Fusão e Percepção de Baixo Nível LeddarVision Front-Entry (LVF-E) Abrangente com Processador TI TDA4VM-Q1 para Aplicativos L2/L2+ ADAS

A amostra “B” da LVF–E da LeddarTech, com ECU incorporada, apresenta uma soluo indita para a indstria com alto desempenho e confiabilidade de fuso de baixo nvel para o mercado ADAS de nvel bsico

QUEBEC, June 28, 2023 (GLOBE NEWSWIRE) — A LeddarTech , uma empresa de software automotivo que fornece tecnologia patenteada de software de fuso e percepo de sensores de baixo nvel para ADAS e AD, tem o prazer de anunciar que as amostras "B" LeddarVision da sua assistncia rodoviria ADAS L2/L2+ de nvel bsico e a pilha de software de fuso e percepo de baixo nvel NCAP 2025/GSR 2022 de 5 estrelas otimizada para o processador TDA4VM–Q1 (8 TOPS) da Texas Instruments j esto disponveis.

O produto LeddarVision Front–Entry (LVF–E), lanado formalmente no final de 2022, foi projetado para clientes que buscam desenvolver aplicativos L2/L2+ de assistncia rodoviria e segurana ADAS de nvel bsico. A introduo das amostras "B" traz avanos emocionantes para o LVF–E alimentado por um processador Texas Instruments (TI) TDA4VM–Q1. Com o uso dessas amostras “B”, a LVF–E oferece benefcios substanciais de custo e desempenho para fuso de baixo nvel, abrindo caminho para a adoo acelerada de sistemas L2/L2+. Alm disso, esse avano reduz efetivamente os requisitos do sensor e do processador, tornando–os mais acessveis e eficientes para implementao generalizada. A soluo Front–Entry da LeddarVision tambm o primeiro design da famlia de processadores altamente integrada e econmica TDA4x da TI em uma soluo de fuso de baixo nvel.

Benefcios

  • Maior Desempenho:
    • Duas vezes mais o alcance efetivo dos sensores, permitindo que o ADAS de alto desempenho atinja os padres NCAP 2025 e GSR 2022 de 5 estrelas com custos mais baixos de sensor e sistema.
  • Custos mais baixos:
    • Menos requisitos de hardware: O primeiro da indstria habilitado com uma nica cmera frontal de 120 graus de 1 a 2 megapixels e dois radares de canto dianteiro de curto alcance em uma configurao 1V2R.
    • Com uma implementao eficiente na plataforma TDA4VM–Q1, ele alcana um dos custos de sistema mais baixos para ADAS de nvel bsico L2/L2+ sem sacrificar o desempenho do sistema.

Visite a pgina do produto LVF–E da LeddarTech para obter mais informaes e para solicitar uma demonstrao.

"OEMs e Tier 1s se esforam para melhorar a acessibilidade do ADAS. A LeddarTech consegue isso reduzindo o nmero e o custo dos sensores, simplificando os sistemas e reduzindo o custo do processador, fornecendo, ao mesmo tempo fuso de baixo nvel (LLF) e percepo de alto desempenho em uma ECU de nvel automtico. A compatibilidade da fuso de baixo nvel com o processador TDA4VM–Q1 da TI altamente atraente para o mercado. A disponibilidade de amostras "B' da nossa pilha de software LVF–E expem uma soluo de percepo econmica usando LLF, marcando um marco significativo para a tecnologia da LeddarTech na popular famlia de processadores TDA4x", disse Charles Boulanger, CEO da LeddarTech.

Sobre a LeddarTech

Uma empresa global de software fundada em 2007 e sediada na cidade de Quebec, com centros adicionais de P&D em Montreal, Toronto e Tel Aviv, Israel, a LeddarTech desenvolve e fornece solues abrangentes de software de percepo que permitem a implantao de aplicaes ADAS e de conduo autnoma (AD). O software de nvel automotivo da LeddarTech aplica algoritmos avanados de IA e viso computacional para gerar modelos 3D precisos do ambiente, permitindo uma melhor tomada de deciso e navegao mais segura. Esta tecnologia de alto desempenho, escalonvel e econmica disponvel para OEMs e fornecedores de Nvel 1–2 para a implementao eficiente de solues ADAS para veculos automotivos e off–road.

A LeddarTech responsvel por vrias inovaes de sensor remoto, com mais de 150 patentes concedidas ou solicitadas que aprimoram os recursos de ADAS e AD. A percepo de veculos fundamental para tornar a mobilidade global mais segura, eficiente, sustentvel e acessvel: e por isso que a LeddarTech deseja se tornar a soluo de software de fuso e percepo de sensores mais amplamente adotada.

Para mais informao sobre a LeddarTech, visite www.leddartech.com, LinkedIn, Twitter, Facebook e YouTube.

Contato:
Daniel Aitken, Vice–Presidente, Marketing Global, Comunicaes e Relacionamento com o Investidor, LeddarTech Inc. Tel.: + 1–418–653–9000 ramal 232 daniel.aitken@leddartech.com

Os logotipos Leddar, LeddarTech, LeddarVision, LeddarSP, VAYADrive, VayaVision e afins so marcas comerciais ou marcas comerciais registradas da LeddarTech Inc. e suas subsidirias. Todas as outras marcas e nomes de produtos so ou podem ser marcas comerciais ou marcas comerciais registradas usadas para identificar produtos ou servios de seus respectivos proprietrios.


GLOBENEWSWIRE (Distribution ID 8866420)

LeddarTech veröffentlicht Produktionsmuster der umfassenden Low-Level-Fusions- und Wahrnehmungssoftware LeddarVision Front-Entry (LVF-E) mit dem TI-Prozessor TDA4VM-Q1 für L2/L2+ ADAS-Anwendungen

Das LVF–E "B"–Muster von LeddarTech mit eingebettetem Steuergert stellt eine in der Branche neue Lsung dar, die die hohe Leistung und Zuverlssigkeit der Low–Level–Fusion auf dem ADAS–Einstiegsmarkt zur Verfgung stellt

QUEBEC, June 28, 2023 (GLOBE NEWSWIRE) — LeddarTech , ein Automobilsoftwareunternehmen, das patentierte, bahnbrechende Low–Level–Sensorfusions– und Wahrnehmungssoftwaretechnologie fr ADAS und AD anbietet, freut sich bekannt zu geben, dass jetzt "B"–Muster seiner LeddarVision Entry–Level–ADAS L2/L2+ Highway Assist– und NCAP 2025 (5 Sterne)/GSR 2022 Low–Level–Fusions– und Wahrnehmungssoftware, die fr den TDA4VM–Q1 (8 TOPS)–Prozessor von Texas Instruments optimiert wurden, verfgbar sind.

Das LeddarVision Front–Entry (LVF–E)–Produkt, das Ende 2022 offiziell auf dem Markt eingefhrt wurde, ist fr Kunden entwickelt worden, die ADAS–Sicherheits– und Straenassistenzanwendungen der Stufen L2/L2+ fr die Einstiegsklasse entwickeln mchten. Die Einfhrung der "B"–Muster bringt aufregende Fortschritte fr LVF–E, das von einem TDA4VM–Q1–Prozessor von Texas Instruments (TI) angetrieben wird. Durch die Nutzung dieser "B"–Muster bietet LVF–E erhebliche Kosten– und Leistungsvorteile fr die Low–Level–Fusion und ebnet den Weg fr eine beschleunigte Einfhrung von L2/L2+–Systemen. Darber hinaus reduziert dieser Durchbruch die Anforderungen an Sensoren und Prozessoren, was eine weit verbreitete Implementierung erleichtert und effizienter macht. Die LeddarVision Front–Entry–Lsung ist auch das erste Design, bei dem die hochintegrierte und kosteneffiziente TDA4x–Prozessorfamilie von TI in einer Low–Level–Fusion–Lsung zum Einsatz kommt.

Vorteile

  • Hhere Leistung:
    • Verdoppelt die effektive Reichweite der Sensoren und ermglicht so ein leistungsstarkes ADAS, das die Standards NCAP 2025 (5 Sterne) und GSR 2022 mit geringeren Sensor– und Systemkosten erfllt.
  • Niedrigere Kosten:
    • Geringere Hardwareanforderungen: Ein Novum in der Branche, das mit einer einzigen 120–Grad–Frontkamera mit 1 bis 2 Megapixeln und zwei Radargerten mit kurzer Reichweite in der vorderen Ecke in einer 1V2R–Konfiguration ausgestattet ist.
    • Durch die effiziente Implementierung auf der TDA4VM–Q1–Plattform werden die niedrigsten Systemkosten fr L2/L2+–ADAS der Einstiegsklasse erreicht, ohne dass die Systemleistung darunter leidet.

Besuchen Sie die LVF–E–Produktseite von LeddarTech fr weitere Informationen und zur Anforderung einer Demo.

"OEMs und Tier–1–Zulieferer bemhen sich, die Erschwinglichkeit von ADAS zu verbessern. LeddarTech erreicht dies durch die Reduzierung der Anzahl der Sensoren und der Kosten, die Vereinfachung der Systeme und die Senkung der Prozessorkosten bei gleichzeitiger Bereitstellung einer leistungsstarken Low–Level–Fusion (LLF) und Wahrnehmung in einem Steuergert mit Autoqualitt. Die Demonstration der Kompatibilitt von Low–Level–Fusion mit dem TI–Prozessor TDA4VM–Q1 ist ein starkes Statement fr den Markt. Die Verfgbarkeit von "B"–Mustern unseres LVF–E Software–Stacks zeigt eine kosteneffiziente Wahrnehmungslsung unter Verwendung von LLF und stellt einen bedeutenden Meilenstein fr die Technologie von LeddarTech in Bezug auf die beliebte TDA4x–Prozessorfamilie dar", so Charles Boulanger, CEO von LeddarTech.

ber LeddarTech

LeddarTech ist ein 2007 gegrndetes globales Softwareunternehmen mit Hauptsitz in Qubec City und weiteren Forschungs– und Entwicklungszentren in Montreal, Toronto und Tel Aviv, Israel. LeddarTech entwickelt und liefert umfassende Softwarelsungen fr die Wahrnehmung, die den Einsatz von ADAS– und autonomen Fahranwendungen ermglichen. Die Software von LeddarTech, die fr die Automobilindustrie ausgelegt ist, wendet fortschrittliche KI– und Computer–Vision–Algorithmen an, um przise 3D–Modelle der Umgebung zu erstellen, die eine bessere Entscheidungsfindung und sicherere Navigation ermglichen. Diese leistungsstarke, skalierbare und kosteneffiziente Technologie steht OEMs und Tier–1/2–Zulieferern fr die effiziente Implementierung von Automobil– und Gelndewagenlsungen zur Verfgung.

LeddarTech ist fr zahlreiche Innovationen im Bereich der Fernerkundung verantwortlich und verfgt ber mehr als 150 erteilte oder angemeldete Patente, die ADAS– und AD–Funktionen verbessern. Eine bessere Wahrnehmung rund um das Fahrzeug ist entscheidend, um die globale Mobilitt sicherer, effizienter, nachhaltiger und erschwinglicher zu machen: Das ist es, was LeddarTech dazu antreibt, die am weitesten verbreitete Softwarelsung fr Sensorfusion und Wahrnehmung zu werden.

Weitere Informationen ber LeddarTech finden Sie unter www.leddartech.com sowie bei LinkedIn, Twitter, Facebook und YouTube.

Kontakt:
Daniel Aitken, Vice–President, Global Marketing, Communications and Investor Relations, LeddarTech Inc. Tel.: + 1–418–653–9000 Durchwahl 232 daniel.aitken@leddartech.com

Leddar, LeddarTech, LeddarVision, LeddarSP, VAYADrive, VayaVision und verwandte Logos sind Marken oder eingetragene Marken von LeddarTech Inc. und seinen Tochtergesellschaften. Alle anderen Marken und Produktnamen sind oder knnen Marken oder eingetragene Marken sein, die zur Identifizierung von Produkten oder Dienstleistungen ihrer jeweiligen Inhaber verwendet werden.


GLOBENEWSWIRE (Distribution ID 8866420)

Mattermost lance « OpenOps » pour accélérer l'évaluation responsable de l'IA générative appliquée aux workflows

PALO ALTO, Californie, 28 juin 2023 (GLOBE NEWSWIRE) — Lors de la Collision Conference 2023, Mattermost, Inc., la plateforme de collaboration scurise pour les quipes techniques, a annonc le lancement d' OpenOps , une approche open–source pour l'acclration de l'valuation responsable des politiques d'utilisation et des workflows amliors par l'IA qui permet aussi de maintenir le contrle des donnes et d'viter l'enfermement propritaire.

OpenOps merge la croise de la course pour tirer parti de l'IA afin d'obtenir un avantage concurrentiel et du besoin urgent de mener des oprations dignes de confiance, comprenant le dveloppement de politiques d'utilisation et de surveillance et assurant des contrles des donnes la fois rglementaires et faisant l'objet d'une obligation contractuelle.

Cette plateforme vise aider dgager les goulots d'tranglement cls entre ces proccupations cruciales en permettant aux dveloppeurs et aux entreprises d'auto–hberger un environnement de type bac sable avec un contrle total des donnes pour valuer de manire responsable les avantages et les risques de diffrents modles d'IA et politiques d'utilisation sur des workflows de collaboration par t'chat multi–utilisateurs du monde rel.

Le systme peut tre utilis pour valuer des LLM auto–hbergs lists sur Hugging Face, dont Falcon LLM et GPT4All, lorsque l'utilisation est optimise pour le contrle des donnes, ainsi que les modles hbergs par des fournisseurs en hyperscale depuis la plateforme Azure AI, OpenAI ChatGPT et Anthropic Claude lorsque l'utilisation est optimise des fins de performance.

La premire version de la plateforme OpenOps permet l'valuation d'une varit de cas d'utilisation amliors par l'IA, notamment :

Questions et rponses automatises : pendant un travail individuel comme collaboratif, les utilisateurs peuvent poser des questions des modles d'IA gnrative, qu'ils soient auto–hbergs ou hbergs par un fournisseur, afin d'en savoir plus sur diffrents sujets pris en charge par le modle.

Rcapitulation des discussions : des rsums peuvent tre gnrs par l'IA partir de discussions auto–hberges bases sur le t'chat afin d'acclrer les flux d'informations et la prise de dcisions, tout en rduisant le temps et le cot requis pour permettre aux entreprises de rester informes.

Interrogation contextuelle : les utilisateurs peuvent poser des questions de suivi des rsums de fils de discussion gnrs par des bots IA pour en savoir plus sur les informations sous–jacentes sans aller dans les donnes brutes. Par exemple, un rsum de discussion d'un bot IA sur un certain individu faisant une srie de demandes en vue d'un dpannage pourrait tre interrog via le bot IA afin d'avoir davantage de contexte sur la raison de ces demandes, et sur la manire dont il avait l'intention d'utiliser les informations.

Analyse des sentiments : les bots IA peuvent analyser le sentiment des messages, une fonction qui peut tre utilise pour recommander et fournir des ractions sous forme d'moticnes ces messages pour le compte d'un utilisateur. Par exemple, aprs avoir dtect un sentiment de rjouissance, un bot IA peut ajouter une raction sous la forme d'une moticne flamme indiquant de l'enthousiasme.

Collection d'apprentissages de renforcement bass sur le feedback humain (Reinforcement Learning from Human Feedback, RLHF) : pour aider valuer et former les modles d'IA, le systme peut recueillir le feedback des utilisateurs concernant les rponses provenant de diffrents modles et saisies en enregistrant les signaux pouce vers le haut/pouce vers le bas slectionns par les utilisateurs. l'avenir, les donnes pourront tre utilises pour peaufiner les modles existants et s'avreront aussi utiles pour valuer des modles alternatifs sur des saisies d'utilisateurs passes.

Ce framework open–source auto–hberg offre une architecture d'oprations et d'IA contrle par le client , fournissant un hub oprationnel pour la coordination et l'automatisation avec des bots IA connects des backends interchangeables auto–hbergs d'IA gnrative et de LLM de services comme Hugging Face. Par ailleurs, cette solution peut la fois prendre de l'ampleur pour devenir une architecture de data center et de cloud priv, ou rduire son chelle pour fonctionner sur l'ordinateur portable d'un dveloppeur des fins de recherche et d'exploration. Dans le mme temps, elle peut aussi se connecter aux modles hbergs par des fournisseurs en hyperscale depuis la plateforme Azure AI ainsi qu'OpenAI.

Chaque entreprise est dans la course pour dfinir de quelle manire l'IA acclre son avantage concurrentiel , a dclar Ian Tien, PDG de Mattermost. Nous avons cr OpenOps pour aider les entreprises dvoiler leur potentiel de manire responsable avec la capacit d'valuer une large gamme de politiques d'utilisation et de modles d'IA tout en acclrant leurs workflows internes.

Le framework OpenOps recommande une approche en quatre phases pour dvelopper les amliorations par IA :

1 – Un environnement de type bac sable auto–hberg – Demandez des quipes techniques de mettre en place un environnement de type bac sable auto–hberg en guise d'espace sr avec un contrle des donnes et une vrifiabilit afin d'explorer et de dmontrer les technologies de l'IA gnrative. Le bac sable OpenOps peut inclure simplement la collaboration Web par t'chat multi–utilisateurs ou tre tendu pour inclure les applications sur ordinateur de bureau et appareil mobile, les intgrations partir de diffrents outils internes pour simuler un environnement de production, ainsi que l'intgration d'autres environnements de collaboration, comme des canaux Microsoft Teams spcifiques.

2 – Un framework de contrle des donnes – Les quipes techniques mnent une valuation initiale de diffrents modles d'IA sur des cas d'utilisation internes, et dfinissent un point de dpart pour les politiques d'utilisation couvrant les questions de contrle des donnes avec diffrents modles, auto–hbergs ou hbergs par des fournisseurs, et dans ce dernier cas, sur la base de diffrentes assurances de manipulation des donnes. Par exemple, les politiques de contrle des donnes peuvent aller du blocage total des IA hberges par des fournisseurs au blocage de l'utilisation souponne de donnes sensibles comme des numros de carte de crdit ou des cls prives, ou alors il peut s'agir de politiques personnalises pouvant tre encodes dans l'environnement.

3 – Un framework de confiance, de scurit et de conformit – Les quipes de confiance, scurit et conformit sont invites dans l'environnement de type bac sable afin d'observer et d'interagir avec les premiers cas d'utilisation amliors par l'IA et travaillent avec les quipes techniques afin de dvelopper des politiques d'utilisation et de surveillance en plus du contrle des donnes. Par exemple, il peut s'agir de la cration de lignes directrices afin de dcider si l'IA peut tre utilise pour aider les responsables rdiger des valuations de performance pour leurs quipes, ou pour savoir si l'IA peut tre employe afin de rechercher des techniques de dveloppement de logiciels malveillants.

4 – Pilote et production – Une fois un rfrentiel des politiques d'utilisation et les premires amliorations apportes par l'IA disponibles, un groupe d'utilisateurs pilotes peut tre ajout l'environnement de type bac sable pour valuer les avantages de ces amliorations. Les quipes techniques peuvent rpter l'ajout d'amliorations de workflows l'aide de diffrents modles d'IA tandis que les quipes de confiance, scurit et conformit peuvent surveiller l'utilisation avec une vrifiabilit totale et rpter les politiques d'utilisation et leurs mises en "uvre. mesure que le systme pilote mrit, l'ensemble complet d'amliorations peut tre dploy dans des environnements de production pouvant fonctionner sur une version mise en production du framework OpenOps.

Le framework OpenOps inclut les capacits suivantes :

Un hub oprationnel auto–hberg : OpenOps permet des workflows oprationnels auto–hbergs sur une plateforme de messagerie en temps rel travers les systmes Web, mobiles et de bureau partir du projet open–source Mattermost. Les intgrations aux systmes internes et aux outils de dveloppeurs populaires aident enrichir les backends d'IA avec des donnes contextuelles cruciales. L'automatisation des workflows acclre les temps de rponse tout en rduisant les taux d'erreur et le risque.

Des bots IA avec des backends IA interchangeables : OpenOps permet aux bots IA d'tre intgrs aux oprations tandis qu'ils sont connects une palette interchangeable de plateformes IA. Pour un contrle maximal des donnes, travaillez avec des modles LLM open–source auto–hbergs comprenant GPT4All et Falcon LLM de services comme Hugging Face. Pour des performances optimales, puisez dans le frameworking IA tiers comprenant OpenAI ChatGPT, la plateforme Azure AI et Anthropic Claude.

Contrle total des donnes : OpenOps permet aux entreprises d'auto–hberger, contrler et surveiller toutes les donnes, toutes les adresses IP et tout le trafic rseau au moyen de son infrastructure de scurit et de conformit existante. Cela permet aux entreprises de dvelopper un corpus riche de donnes de formation du monde rel pour l'valuation et le peaufinage futurs de backends IA.

Gratuit et open–source : disponible sous les licences MIT et Apache 2, OpenOps est un systme open–source gratuit permettant aux entreprises de dployer et d'excuter l'architecture complte en toute simplicit.

volutivit : OpenOps offre la flexibilit d'un dploiement sur des clouds privs, des data centers ou mme un ordinateur portable standard. Le systme supprime aussi la ncessit de matriel spcialis comme des processeurs graphiques, tendant le nombre de dveloppeurs pouvant explorer les modles d'IA auto–hbergs.

Le framework OpenOps est actuellement exprimental et peut tre tlcharg sur openops.mattermost.com.

propos de Mattermost

Mattermost fournit un hub extensible et sr aux quipes techniques et oprationnelles qui doivent rpondre des exigences de confiance et de scurit au niveau d'un tat–nation. Nous desservons les industries de la technologie, du secteur public et de la dfense nationale avec des clients allant des gants technologiques au Dpartement de la dfense des tats–Unis en passant par des agences gouvernementales du monde entier.

Nos offres cloud auto–hberges fournissent une plateforme robuste pour la communication technique travers les systmes Web, de bureau et mobiles prenant en charge les workflows oprationnels, la collaboration sur les incidents, l'intgration au Dev/Sec/Ops et aux chanes de compilation internes et la connexion avec une large gamme de plateformes de communications unifies.

Nous fonctionnons avec une plateforme open–source approuve et dploye par les organisations les plus cruciales et sres du monde, qui est co–construite avec plus de 4 000 contributeurs de projets open–source ayant fourni plus de 30 000 amliorations de codes en faveur de notre vision partage des produits, et traduite en 20 langues.

Pour en savoir plus, veuillez consulter le site www.mattermost.com.

Mattermost et le logo Mattermost sont des marques commerciales dposes de Mattermost, Inc. Toutes les autres marques commerciales sont la proprit de leurs dtenteurs respectifs.

Contact auprs des mdias :

Amy Nicol
Relations avec la presse
Mattermost, Inc.

+1 (650) 667–8512
media@mattermost.com

Images :

Titre : Ian Tien, PDG de Mattermost, Inc.

Lgende : Ian Tien, PDG de Mattermost, Inc., annonce la plateforme OpenOps pour le contrle des adresses IP et viter l'enfermement propritaire alors que les workflows oprationnels sont de plus en plus acclrs par l'IA

Image complte : https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Des photos accompagnant ce communiqu sont disponibles aux adresses suivantes :

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf–8b1b–4ed6–9f51–952fc8b97597/fr

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d–4245–4ee9–91ff–895cf0afa68b


GLOBENEWSWIRE (Distribution ID 8866193)

Mattermost Lança “OpenOps” para Acelerar a Avaliação Responsável da IA Generativa Aplicada aos Fluxos de Trabalho

PALO ALTO, Califórnia, June 28, 2023 (GLOBE NEWSWIRE) — Na 2023 Collision Conference, Mattermost, Inc., a plataforma de colaborao segura para equipes tcnicas, anunciou o lanamento do “OpenOps”, uma abordagem de cdigo aberto para acelerar a avaliao responsvel de fluxos de trabalho e polticas de uso aprimorados por IA, mantendo o controle de dados e evitando o bloqueio de fornecedores.

O OpenOps surge na interseo da corrida para alavancar a IA para obter vantagem competitiva e a necessidade urgente de execuo de operaes confiveis, incluindo desenvolvimento de polticas de uso e superviso, e a garantia de controles de dados regulatrios e contratuais.

O objetivo ajudar a eliminar os principais gargalos dessas preocupaes crticas, permitindo que desenvolvedores e organizaes hospedem um ambiente "sandbox" com controle total dos dados, para uma avaliao responsvel dos benefcios e riscos de diferentes modelos de IA e polticas de uso em fluxos de trabalho de colaborao de bate–papo multiusurio do mundo real.

O sistema pode ser usado para avaliar LLMs auto hospedados listados no Hugging Face, incluindo Falcon LLM e GPT4All, quando o uso otimizado para controle de dados, bem como modelos hiper escalados hospedados pelo fornecedor da plataforma Azure AI, OpenAI ChatGPT e Anthropic Claude, quando o uso otimizado para desempenho.

A primeira verso da plataforma OpenOps permite a avaliao de uma srie de casos de uso aumentados por IA, incluindo:

Perguntas e Respostas Automatizadas: Durante o trabalho colaborativo e individual, os usurios podem fazer perguntas a modelos de IA geradores, auto hospedados ou hospedados por fornecedores, para aprender sobre diferentes assuntos suportados pelo modelo.

Resumo da Discusso: Os resumos gerados pela IA podem ser criados a partir de discusses auto hospedadas e baseadas em bate–papo para acelerar os fluxos de informaes e a tomada de decises e reduzir o tempo e o custo necessrios para que as organizaes se mantenham atualizadas.

Interrogatrio Contextual: Os usurios podem fazer perguntas de acompanhamento para resumos de tpicos gerados por bots de IA para saber mais sobre as informaes subjacentes sem entrar nos dados brutos. Por exemplo, um resumo de discusso de um bot de IA sobre um determinado indivduo que fez uma srie de solicitaes sobre questes de soluo de problemas pode ser interrogado por meio do bot de IA para obter mais contexto sobre o motivo pelo qual o indivduo fez as solicitaes e como pretendia usar as informaes.

Anlise de Sentimentos: Os bots de IA podem analisar o sentimento das mensagens e isso pode ser usado para recomendar e fornecer reaes de emoji nessas mensagens em nome de um usurio. Por exemplo, depois de detectar um sentimento de comemorao, um bot de IA pode adicionar uma reao de emoji "fogos" indicando a empolgao.

Coleta de Reforo de Aprendizado de Feedback Humano (RLHF): Para ajudar a avaliar e treinar modelos de IA, o sistema pode coletar feedback dos usurios sobre as respostas de diferentes prompts e modelos, registrando os sinais "polegares para cima/polegares para baixo" selecionados pelos usurios finais. Os dados podem ser usados no futuro para ajustar os modelos existentes, bem como fornecer informaes para avaliar modelos alternativos de solicitaes de usurios anteriores.

Essa estrutura auto hospedada de cdigo aberto oferece uma "Arquitetura de IA e Operaes Controladas pelo Cliente", fornecendo um hub operacional para coordenao e automao com bots de IA conectados a back–ends generativos de IA e LLM intercambiveis e auto hospedados de servios, tal como o Hugging Face, que podem escalar para arquiteturas de nuvem privada e data center, bem como escalar para baixo para ser executado no laptop de um desenvolvedor para pesquisa e explorao. Por outro lado, ele tambm pode se conectar a modelos hiper escalados hospedados por fornecedores da plataforma de IA da Azure, bem como do OpenAI.

"Todas as organizaes esto em uma corrida para definir como a IA deve acelerar sua vantagem competitiva", disse o CEO da Mattermost, Ian Tien. "Criamos o OpenOps para ajudar as organizaes a desbloquear com responsabilidade seu potencial com a capacidade de avaliar uma ampla gama de polticas de uso e modelos de IA da sua capacidade de acelerar os fluxos de trabalho internos em conjunto".

A estrutura OpenOps recomenda uma abordagem de quatro fases para o desenvolvimento de aumentos de IA:

1 – Sandbox auto hospedado: Para que as equipes tcnicas possam criar um ambiente "sandbox" auto hospedado como um espao seguro com controle de dados e auditabilidade para explorar e demonstrar tecnologias de IA geradoras. O sandbox OpenOps pode incluir apenas colaborao de bate–papo multiusurio baseada na Web ou ser estendida para incluir aplicativos de desktop e mveis, integraes de diferentes ferramentas internas para simular um ambiente de produo, bem como integrao com outros ambientes de colaborao, como canais especficos da Microsoft Teams.

2 – Estrutura de Controle de Dados: As equipes tcnicas realizam uma avaliao inicial de diferentes modelos de IA em casos de uso internos e estabelecem um ponto de partida para polticas de uso que abrangem questes de controle de dados com diferentes modelos com base em se os modelos so auto hospedados ou hospedados pelo fornecedor, e em modelos hospedados pelo fornecedor com base em diferentes garantias de manuseio de dados. Por exemplo, as polticas de controle de dados podem variar desde o bloqueio completo de IAs hospedadas por fornecedores at o bloqueio do uso suspeito de dados confidenciais, como nmeros de carto de crdito ou chaves privadas, ou polticas personalizadas que podem ser codificadas no ambiente.

3 – Estrutura de Confiana, Segurana e Conformidade: As equipes de confiana, segurana e conformidade so convidadas a entrar no ambiente sandbox para observar e interagir com casos de uso iniciais aprimorados por IA e trabalhar com equipes tcnicas para desenvolver polticas de uso e superviso, alm do controle dos dados. Por exemplo, a definio de diretrizes sobre se a IA pode ser usada para ajudar os gerentes a escrever avaliaes de desempenho para suas equipes, ou se as tcnicas de pesquisa para o desenvolvimento de software malicioso podem ser pesquisadas usando IA.

4 – Piloto e Produo: Uma vez que uma linha de base para polticas de uso e aprimoramentos iniciais de IA estejam disponveis, um grupo piloto de usurios pode ser adicionado ao ambiente sandbox para avaliar os benefcios dos aumentos. As equipes tcnicas podem iterar na adio de aumentos de fluxo de trabalho usando diferentes modelos de IA, enquanto as equipes de Confiana, Segurana e Conformidade podem monitorar o uso com total auditabilidade e iterar as polticas de uso e suas implementaes. Com o amadurecimento do sistema piloto, o conjunto completo de aprimoramentos pode ser implantado em ambientes de produo que podem ser executados em uma verso de produo da estrutura OpenOps.

A estrutura do OpenOps inclui os seguintes recursos:

Hub Operacional Auto Hospedado: O OpenOps permite fluxos de trabalho operacionais auto hospedados em uma plataforma de mensagens em tempo real em toda a web, celular e desktop, a partir do projeto de cdigo aberto Mattermost. Integraes com sistemas internos e ferramentas de desenvolvimento populares para ajudar a enriquecer os back–ends de IA com dados crticos e contextuais. A automao do fluxo de trabalho acelera os tempos de resposta enquanto reduz as taxas de erro e o risco.

Bots de IA com Back–Ends de IA Intercambiveis: O OpenOps permite que os bots de IA sejam integrados s operaes enquanto esto conectados a uma variedade intercambivel de plataformas de IA. Para o mximo controle dos dados, trabalhe com modelos LLM de cdigo aberto auto hospedados, incluindo GPT4All e Falcon LLM de servios, tal como o Hugging Face. Para obter o mximo desempenho, faa uso de estruturas de IA de terceiros, incluindo o OpenAI ChatGPT, a Plataforma de IA do Azure e o Anthropic Claude.

Controle Completo dos Dados: O OpenOps permite que as organizaes hospedem, controlem e monitorem todos os dados, IP e trfego de rede usando sua infraestrutura de segurana e conformidade existente. Isso permite que as organizaes desenvolvam um rico corpus de dados de treinamento do mundo real para futura avaliao e ajuste fino de back–end de IA.

Gratuito e de Cdigo Aberto: Disponvel sob as licenas MIT e Apache 2, o OpenOps um sistema gratuito e de cdigo aberto, permitindo que as empresas implantem e executem facilmente toda a arquitetura.

Escalabilidade: O OpenOps oferece a flexibilidade da implantao em nuvens privadas, data centers ou at mesmo em um laptop padro. O sistema tambm elimina a necessidade de hardware especializado, como GPUs, ampliando o nmero de desenvolvedores que podem explorar modelos de IA auto hospedados.

O framework OpenOps experimental no momento e pode ser baixado em openops.mattermost.com.

Sobre a Mattermost

A Mattermost fornece um hub seguro e extensvel para equipes tcnicas e operacionais que precisam atender aos requisitos de segurana e confiana do estado–nao. Atendemos indstrias de tecnologia, setor pblico e defesa nacional com clientes que vo desde os gigantes da tecnologia at o Departamento de Defesa dos EUA e agncias governamentais em todo o mundo.

Nossas ofertas auto hospedadas e em nuvem fornecem uma plataforma robusta para comunicao tcnica em todo o fluxo de trabalho operacional de suporte de web, desktop e mvel, colaborao de incidentes, integrao com Dev/Sec/Ops e cadeias de ferramentas internas, e conexo com uma ampla gama de plataformas de comunicaes unificadas.

Executamos uma plataforma de cdigo aberto verificada e implantada pelas organizaes mais seguras e crticas do mundo, desenvolvida em conjunto com mais de 4.000 colaboradores de projetos de cdigo aberto que forneceram mais de 30.000 melhorias de cdigo para nossa viso de produto compartilhada e traduzida para 20 idiomas.

Para mais informao, visite www.mattermost.com.

Mattermost e o logotipo Mattermost so marcas comerciais registradas da Mattermost, Inc. Todas as outras marcas comerciais pertencem aos seus respectivos proprietrios.

Contato com a Mdia:

Amy Nicol
Relaes de Imprensa
Mattermost, Inc.

+1 (650) 667–8512
media@mattermost.com

Imagens:

Ttulo: Ian Tien, CEO da Mattermost, Inc.

Legenda: Ian Tien, CEO da Mattermost, Inc., anuncia o lanamento da plataforma "OpenOps" para controle de IP e evitar bloqueio diante da acelerao dos fluxos de trabalho operacionais por IA

Imagem completa: https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Fotos deste comunicado podem ser encontradas em:

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf–8b1b–4ed6–9f51–952fc8b97597/pt

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d–4245–4ee9–91ff–895cf0afa68b


GLOBENEWSWIRE (Distribution ID 8866193)

Mattermost führt „OpenOps“ zur Beschleunigung der verantwortungsvollen Bewertung von generativer KI in Arbeitsabläufen ein

PALO ALTO, Kalifornien, June 28, 2023 (GLOBE NEWSWIRE) — Auf der Collision Conference 2023 hat Mattermost, Inc. die sichere Kollaborationsplattform fr technische Teams, die Einfhrung von "OpenOps" angekndigt, einem Open–Source–Ansatz zur Beschleunigung der verantwortungsvollen Evaluierung von KI–gesttzten Workflows und Nutzungsrichtlinien bei gleichzeitiger Beibehaltung der Datenkontrolle und Vermeidung von Anbieterbindung.

OpenOps entsteht an der Schnittstelle zwischen dem Bestreben, KI als Wettbewerbsvorteil zu nutzen, und der dringenden Notwendigkeit, einen vertrauenswrdigen Betrieb zu fhren, einschlielich der Entwicklung von Nutzungs– und berwachungsrichtlinien und der Sicherstellung gesetzlicher und vertraglich festgelegter Datenkontrollen.

Es soll dazu beitragen, Engpsse zwischen diesen kritischen Belangen zu beseitigen, indem es Entwicklern und Unternehmen ermglicht, selbst eine "Sandbox"–Umgebung mit voller Datenkontrolle zu hosten, um die Vorteile und Risiken verschiedener KI–Modelle und Nutzungsrichtlinien fr reale Chat–Collaboration–Workflows mit mehreren Nutzern verantwortungsbewusst zu bewerten.

Das System kann verwendet werden, um selbst gehostete LLMs, die auf Hugging Face aufgelistet sind, einschlielich Falcon LLM und GPT4All, wenn die Nutzung fr die Datenkontrolle optimiert ist, sowie hyperskalierte, von Anbietern gehostete Modelle der Azure AI–Plattform, OpenAI ChatGPT und Anthropic Claude zu bewerten, wenn die Nutzung fr die Leistung optimiert ist.

Die erste Version der OpenOps–Plattform ermglicht die Evaluierung einer Reihe von KI–gesttzten Anwendungsfllen, darunter:

Automatisierte Frage– und Antwortablufe: Whrend der gemeinsamen oder individuellen Arbeit knnen die Nutzer Fragen an generative KI–Modelle stellen, die entweder selbst gehostet oder von Anbietern gehostet werden, um mehr ber verschiedene Themen zu erfahren, die das Modell untersttzt.

Zusammenfassung von Diskussionen: KI–generierte Zusammenfassungen knnen aus selbst gehosteten, chatbasierten Diskussionen erstellt werden, um den Informationsfluss und die Entscheidungsfindung zu beschleunigen und gleichzeitig den Zeit– und Kostenaufwand fr Unternehmen zu reduzieren, um auf dem neuesten Stand zu bleiben.

Kontextbezogene Befragung: Nutzer knnen als Reaktion auf von den KI–Bots erstellten Thread–Zusammenfassungen Folgefragen stellen, um mehr ber die zugrunde liegenden Informationen zu erfahren, ohne sich mit den Rohdaten zu befassen. So knnte beispielsweise eine Diskussionszusammenfassung eines KI–Bots ber eine bestimmte Person, die eine Reihe von Anfragen zur Fehlerbehebung gestellt hat, ber den KI–Bot abgefragt werden, um mehr darber zu erfahren, warum die Person die Anfragen gestellt hat und wie sie die Informationen zu nutzen gedenkt.

Stimmungsanalyse: KI–Bots knnen die Stimmung von Nachrichten analysieren, um Empfehlungen auszusprechen und Emoji–Reaktionen auf diese Nachrichten im Namen eines Nutzers zu liefern. Wenn ein KI–Bot zum Beispiel eine feierliche Stimmung erkennt, kann er eine Reaktion mit einem "Feuer"–Emoji hinzufgen, die Aufregung anzeigt.

Verstrkungslernen aus der Sammlung menschlichen Feedbacks: Um die Bewertung und das Training von KI–Modellen zu untersttzen, kann das System Rckmeldungen von Nutzern zu den Antworten auf verschiedene Aufforderungen und Modelle sammeln, indem es die "Daumen hoch/Daumen runter"–Signale aufzeichnet, die die Endnutzer auswhlen. Die Daten knnen in Zukunft sowohl fr die Feinabstimmung bestehender Modelle als auch fr die Bewertung alternativer Modelle auf der Grundlage frherer Benutzeraufforderungen verwendet werden.

Dieses quelloffene, selbst gehostete Framework bietet eine "kundengesteuerte Betriebs– und KI–Architektur". Diese stellt ein operatives Zentrum fr die Koordination und Automatisierung mit KI–Bots dar, die mit austauschbaren, selbst gehosteten generativen KI– und LLM–Backends von Diensten wie Hugging Face verbunden sind. Diese wiederum knnen auf private Cloud– und Rechenzentrumsarchitekturen hochskaliert werden, aber auch auf dem Laptop eines Entwicklers zu Forschungs– und Erkundungszwecken laufen. Gleichzeitig kann es sich auch mit hyperskalierten, von Anbietern gehosteten Modellen der Azure AI–Plattform sowie mit OpenAI verbinden.

"Jede Organisation befindet sich in einem Wettlauf, um zu definieren, wie KI ihren Wettbewerbsvorteil beschleunigt", so Ian Tien, CEO von Mattermost. "Wir haben OpenOps geschaffen, um Organisationen dabei zu helfen, ihr Potenzial verantwortungsvoll zu erschlieen, indem sie eine breite Palette von Nutzungsrichtlinien und KI–Modellen in ihrer Fhigkeit bewerten knnen, die internen Arbeitsablufe gemeinsam zu beschleunigen."

Der OpenOps–Rahmen empfiehlt einen vierstufigen Ansatz fr die Entwicklung von KI–Erweiterungen:

1 – Selbst gehostete Sandbox "" Lassen Sie technische Teams eine selbst gehostete "Sandbox"–Umgebung als sicheren Raum mit Datenkontrolle und Prfbarkeit einrichten, um generative KI–Technologien zu erforschen und zu demonstrieren. Die OpenOps–Sandbox kann webbasierte Multi–User–Chat–Zusammenarbeit allein umfassen oder um Desktop– und mobile Anwendungen, Integrationen verschiedener interner Tools zur Simulation einer Produktionsumgebung sowie die Integration mit anderen Kollaborationsumgebungen, wie z. B. bestimmten Microsoft Teams–Kanlen, erweitert werden.

2 – Datenkontrollrahmen "" Technische Teams fhren eine erste Bewertung verschiedener KI–Modelle fr interne Anwendungsflle durch und legen einen Ausgangspunkt fr Nutzungsrichtlinien fest, die Fragen der Datenkontrolle bei verschiedenen Modellen abdecken, je nachdem, ob es sich um selbst gehostete oder von Anbietern gehostete Modelle handelt, und bei von Anbietern gehosteten Modellen auf der Grundlage unterschiedlicher Datenverarbeitungsgarantien. Die Datenkontrollrichtlinien knnen beispielsweise von der vollstndigen Sperrung der von Anbietern gehosteten KI ber die Sperrung der vermuteten Verwendung sensibler Daten wie Kreditkartennummern oder privater Schlssel bis hin zu benutzerdefinierten Richtlinien reichen, die in die Umgebung kodiert werden knnen.

3 – Vertrauens–, Sicherheits– und Compliance–Rahmen "" Vertrauens–, Sicherheits– und Compliance–Teams werden in die Sandbox–Umgebung eingeladen, um erste KI–gesttzte Anwendungsflle zu beobachten und mit ihnen zu interagieren und mit den technischen Teams zusammenzuarbeiten, um zustzlich zur Datenkontrolle Nutzungs– und Aufsichtsrichtlinien zu entwickeln. So knnen beispielsweise Richtlinien darber definiert werden, ob KI verwendet werden kann, um Managern bei der Erstellung von Leistungsbewertungen fr ihre Teams zu helfen, oder ob Techniken zur Entwicklung bsartiger Software mithilfe von KI erforscht werden knnen.

4 – Pilot und Produktion "" Sobald eine Basis fr Nutzungsrichtlinien und erste KI–Verbesserungen verfgbar ist, kann eine Gruppe von Pilotnutzern in die Sandbox–Umgebung aufgenommen werden, um die Vorteile der Erweiterungen zu bewerten. Technische Teams knnen mit Hilfe verschiedener KI–Modelle Workflow–Erweiterungen hinzufgen, whrend die Teams fr Vertrauen, Sicherheit und Compliance die Nutzung mit vollstndiger Auditierbarkeit berwachen und Nutzungsrichtlinien und deren Implementierung berarbeiten knnen. Wenn das Pilotsystem ausgereift ist, knnen alle Verbesserungen in Produktionsumgebungen eingesetzt werden, die auf einer produktionsreifen Version des OpenOps–Frameworks laufen knnen.

Das OpenOps–Framework umfasst die folgenden Funktionen:

Selbstgehosteter operativer Hub: OpenOps ermglicht selbst gehostete operative Workflows auf einer Echtzeit–Messaging–Plattform fr Web, Mobilgerte und Desktop–Computer des Open–Source–Projekts Mattermost. Integrationen mit internen Systemen und beliebten Entwickler–Tools zur Anreicherung von KI–Backends mit wichtigen, kontextbezogenen Daten. Die Automatisierung von Arbeitsablufen beschleunigt die Reaktionszeiten und reduziert gleichzeitig Fehlerquoten und Risiken.

KI–Bots mit austauschbaren KI–Backends: OpenOps ermglicht die Integration von KI–Bots in den Betrieb und die Anbindung an eine austauschbare Reihe von KI–Plattformen. Fr maximale Datenkontrolle sollten Sie mit selbst gehosteten, quelloffenen LLM–Modellen wie GPT4All und Falcon LLM von Diensten wie Hugging Face arbeiten. Fr maximale Leistung knnen Sie auf KI–Frameworks von Drittanbietern wie OpenAI ChatGPT, die Azure AI Platform und Anthropic Claude zurckgreifen.

Vollstndige Datenkontrolle: OpenOps ermglicht es Unternehmen, den gesamten Daten–, IP– und Netzwerkverkehr selbst zu hosten, zu kontrollieren und zu berwachen, indem sie ihre bestehende Sicherheits– und Compliance–Infrastruktur nutzen. Auf diese Weise knnen Unternehmen einen umfangreichen Bestand an realen Trainingsdaten fr die zuknftige Bewertung und Feinabstimmung von KI–Backends entwickeln.

Kostenlos und Open Source: OpenOps ist ein kostenloses, quelloffenes System, das unter der MIT– und Apache–2–Lizenz verfgbar ist und es Unternehmen ermglicht, die komplette Architektur einfach einzusetzen und zu betreiben.

Skalierbarkeit: OpenOps bietet die Flexibilitt zur Bereitstellung in privaten Clouds, Rechenzentren oder sogar auf einem Standard–Laptop. Das System macht auch spezielle Hardware wie GPUs berflssig, wodurch mehr Entwickler selbst gehostete KI–Modelle erforschen knnen.

Das OpenOps–Framework ist derzeit experimentell und kann unter openops.mattermost.com heruntergeladen werden.

ber Mattermost

Mattermost bietet einen sicheren, erweiterbaren Hub fr technische und operative Teams, die Sicherheits– und Vertrauensanforderungen auf nationaler Ebene erfllen mssen. Unsere Kunden aus den Bereichen Technologie, ffentlicher Sektor und nationale Verteidigung reichen von Tech–Giganten ber das US–Verteidigungsministerium bis hin zu Regierungsbehrden in aller Welt.

Unsere selbst gehosteten und Cloud–Angebote bieten eine robuste Plattform fr die technische Kommunikation ber Web, Desktop und Mobilgerte, die betriebliche Arbeitsablufe, die Zusammenarbeit bei Vorfllen, die Integration mit Dev/Sec/Ops und internen Toolchains sowie die Verbindung mit einer breiten Palette von Unified Communications–Plattformen untersttzt.

Wir arbeiten auf einer Open–Source–Plattform, die von den sichersten und geschftskritischsten Organisationen der Welt geprft und eingesetzt wird. Sie wird gemeinsam mit ber 4 000 Open–Source–Projektmitarbeitern entwickelt, die ber 30 000 Code–Verbesserungen fr unsere gemeinsame Produktvision bereitgestellt haben, die in 20 Sprachen bersetzt wurde.

Um mehr zu erfahren, besuchen Sie uns unter www.mattermost.com.

Mattermost und das Mattermost–Logo sind eingetragene Marken von Mattermost, Inc. Alle anderen Marken sind Eigentum ihrer jeweiligen Inhaber.

Medienkontakt:

Amy Nicol
Press Relations
Mattermost, Inc.

+1 (650) 667–8512
media@mattermost.com

Bilder:

Titel: Ian Tien, CEO von Mattermost, Inc.

Bildunterschrift: Ian Tien, CEO von Mattermost, Inc., kndigt angesichts der Beschleunigung betrieblicher Ablufe durch KI seine "OpenOps"–Plattform zur Steuerung von IP und zur Vermeidung von Lock–Ins an

Vollstndiges Bild: https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Fotos zu dieser Ankndigung sind verfgbar unter:

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf–8b1b–4ed6–9f51–952fc8b97597/de

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d–4245–4ee9–91ff–895cf0afa68b


GLOBENEWSWIRE (Distribution ID 8866193)

WilsonHCG named a Leader and a Star Performer in Everest Group’s 2023 Global RPO Services PEAK Matrix® Assessment

TAMPA, Fla., June 28, 2023 (GLOBE NEWSWIRE) — WilsonHCG has been named a Leader and a Star Performer once again in Everest Group's annual Global Recruitment Process Outsourcing (RPO) Services PEAK Matrix Assessment.

The PEAK Matrix analyzes the changing dynamics of the RPO landscape, providing an objective, data–driven comparative assessment of more than 45 RPO providers based on their overall capability across different global services markets.

“We're honored to be named a Leader and a Star Performer yet again. Our people go above and beyond every day to help our clients' businesses get better "" their dedication to excellence is critical in today's rapidly evolving talent landscape," said John Wilson, CEO at WilsonHCG. "We're also proud of our position as a Major Contender in APAC, as this is a region that we've continued to expand in over the past 12 months."

Commenting on WilsonHCG's global status as a Leader and a Star Performance, Arkadev Basak, Partner, Everest Group, said: "Along with its deep expertise in sourcing niche high–skilled roles, WilsonHCG stands out due to its global footprint and analytical offerings. Its acquisition of Claro and Tracking Talent has fortified its service offerings and helped position WilsonHCG as a Leader and a Star performer on Everest Group's Recruitment Process Outsourcing (RPO) Services PEAK Matrix Assessment 2023 "" Global.”

WilsonHCG's strong track record for hiring high–skill white collar candidates and its doubling down on the healthcare and life sciences (HLS) space was commended by Everest Group, as was its significant delivery capability in North America and strong presence in EMEA.

Other highlights of the assessment include:

  • How WilsonHCG's network of global delivery centers support multiple buyer industries.
  • The company's vast web of partnerships with technology vendors.
  • Its acquisition of Claro to provide a market–leading offering for talent market intelligence.

WilsonHCG was also named a Leader and a Star Performer in North America, a Major Contender and a Star Performer in EMEA and a Major Contender in APAC.

Basak continued: "WilsonHCG is a key player in North America due to its strong delivery capabilities and ability to hire niche white collar roles particularly in high–tech, healthcare and life sciences. Its string of organic and inorganic investments to increase market penetration, improve technological capabilities and advisory offerings has helped in its positioning as a Leader and a Star Performer on Everest Group's Recruitment Process Outsourcing (RPO) Services PEAK Matrix Assessment 2023 – North America.”

To learn more about the PEAK Matrix please visit the Everest Group website.

About WilsonHCG

WilsonHCG is an award–winning, global leader in total talent solutions. Operating as a strategic partner, it helps some of the world's most admired brands build comprehensive talent functions. With a global presence spanning more than 65 countries and six continents, WilsonHCG provides a full suite of configurable talent services including recruitment process outsourcing (RPO), executive search, contingent talent solutions and technology advisory.

TALENT. It's more than a solution; it's who we are.

www.wilsonhcg.com

Media contact
Kirsty Hewitt
+44 7889901517
kirsty.hewitt@wilsonhcg.com

A photo accompanying this announcement is available at https://www.globenewswire.com/NewsRoom/AttachmentNg/4e63ef5e–761d–4037–b8b5–adce40d52acd


GLOBENEWSWIRE (Distribution ID 8866171)

ATP Electronics Lança SSDs 176-Layer PCIe® Gen 4 x4 M.2, U.2 Industriais que Oferecem Excelente Desempenho R/W, Capacidade Máxima de 7,68 TB

TAIPEI, Taiwan, June 28, 2023 (GLOBE NEWSWIRE) — A ATP Electronics, lder global em solues especializadas de armazenamento e memria, apresenta os seus mais recentes drives de estado slido (SSDs) N600 Srie M.2 2280 e U.2 de alta velocidade com a interface PCIe da 4a. gerao e suporte ao protocolo NVMe. A taxa de dados de 16 GT/s dos novos SSDs ATP PCIe Gen 4 duas vezes mais alta do que a da gerao anterior, resultando em uma largura de banda de 2 GB/s para cada linha PCIe.

Com linhas x4, esses SSDs tm uma largura de banda mxima de 8 GB/s, atendendo crescente necessidade de transferncia de dados de alta velocidade nos aplicativos exigentes de hoje, e tornando–os adequados para aplicativos industriais de leitura/gravao intensiva e de misso crtica, como rede/servidor, 5G, registro de dados, vigilncia e imagem, com desempenho igual ou melhor do que os principais SSDs de consumo PCIe Gen 4 do mercado.

176–Layer NAND Flash, Onboard DRAM Oferecem QoS excepcionais,
Menor Custo por GB com Pacote Prime de Matriz de 512 Gbit

A srie N600 baseada no flash NAND 3D de 176 camadas e usa o pacote de matriz de 512 Gbit para oferecer aprimoramentos de desempenho em relao tecnologia de 64 camadas, alm dos aprimoramentos de preo, resultando em menor custo por GB.

Os SSDs M.2 2280 esto disponveis em capacidades de 240 GB a 3.84 TB, enquanto os SSDs U.2 esto disponveis de 960 GB a 7.68 TB para opes mais econmicas para diversos requisitos de armazenamento.

Com uma excelente classificao de Qualidade de Servio (QoS) em comparao com a gerao anterior, a Srie N600 oferece consistncia e previsibilidade ideais com maior desempenho de leitura/gravao, alto IOPS, baixo ndice de amplificao de gravao (WAI) e baixa latncia, graas sua DRAM integrada. A DRAM integrada oferece maior desempenho sustentado durante longos perodos de operao em comparao com solues sem DRAM.

Suporte de Fornecimento de Longo Prazo Pronto para o Futuro

A maximizao da vida til do SSD, bem como a disponibilidade das unidades de reposio muito depois das contrapartes similares de nvel de consumidor terem parado a produo, importante para que as empresas possam aproveitar ao mximo seus investimentos. por isso que a ATP Electronics est comprometida com o suporte longevidade.

"Estamos entusiasmados com o lanamento desta nova linha de produtos com base no flash NAND de clulas de nvel triplo (TLC) de 176 camadas. Embora existam novas iteraes de NAND sendo lanadas em camadas 2XX+, estas se concentraro em 1 Tbit e tamanhos de densidade maiores. O NAND 3D TLC de 176 camadas com densidade de 512 Gbit continua a ser a densidade ideal para muitas aplicaes integradas e especiais, dada a sua necessidade contnua de densidades mdias e baixas de dispositivos SSD.

"Alm de preos competitivos, esta gerao oferecer melhorias de latncia e confiabilidade em todas as faixas de temperatura. Talvez ainda mais importante para a nossa base de clientes, esta gerao oferecer longevidade do produto para o futuro previsto. Podemos trabalhar em confiana com nossa base de clientes, muitas vezes precisando de planejamento de longevidade do produto por mais de 5 anos", disse Jeff Hsieh, Presidente e Diretor Executivo da ATP Electronics.

Operao Confivel e Segura
A srie N600 oferece diversos de recursos de confiabilidade, segurana e integridade de dados, como:

  • Proteo total dos dados, suporte funo TRIM e correo de erros LDPC
  • Resistores anti–enxofre repelem os efeitos nocivos da contaminao pelo enxofre, garantindo operao confivel contnua mesmo em ambientes com alto teor de enxofre
  • Criptografia AES de 256 bits com base em hardware e segurana opcional TCG Opal 2.0/IEEE 1667 para unidade de criptografia automtica (SED)
  • A srie N600Sc oferece operao confivel em temperaturas variveis com classificao C–Temp (0 a 70 ). A srie N600Si opervel por I–Temp (–40 a 85) estar disponvel mais tarde.
  • A limitao trmica ajusta de forma inteligente a carga de trabalho por unidade de tempo operacional. Os estgios de controle so pr–configurados, permitindo que o controlador gerencie efetivamente a gerao de calor para manter o SSD frio. Isso garante um desempenho sustentado e estvel, e evita que o calor danifique o dispositivo. As opes do dissipador de calor esto disponveis por projeto e de acordo com o pedido do cliente.
  • Mecanismo de proteo contra perda de energia (PLP). O N600 Series U.2 e os prximos SSDs M.2 2280 com classificao I–Temp apresentam PLP com base em hardware. Os capacitores integrados mantm a energia por tempo suficiente para garantir que o ltimo comando de leitura/gravao/excluso seja concludo e os dados sejam armazenados com segurana na memria flash no voltil. O design com base em unidade de microcontrolador (MCU) permite que a matriz PLP funcione de forma inteligente em vrias temperaturas, falhas de energia e estados de carga para proteger o dispositivo e os dados. Os SSDs M.2 2280 com classificao C–Temp, por outro lado, apresentam um PLP com base em firmware, protegendo os dados que foram gravados no dispositivo antes da perda de energia.

Aplicaes de Misso Crtica: Ns Trabalhamos com Voc
Dependendo do suporte do projeto e da solicitao do cliente, a ATP pode fornecer personalizao de hardware/firmware, personalizao de solues trmicas e validao e colaborao conjunta de engenharia.

Para garantir a confiabilidade do projeto para aplicaes de misso crtica, a ATP realiza testes extensivos, caracterizao abrangente do projeto/produto, e validao de especificaes e testes personalizados no estgio de produo em massa (MP), como burn–in, ciclo de energia, scripts de testes especficos e muito mais.

Destaques do Produto

PCIe Gen 4 NVMe M.2 2280 PCIe Gen 4 NVMe U.2
Capacidade 240 GB a 3.84 TB 960 GB a 7.68 TB
Temp Operacional C–Temp (0 C a 70 C): N600ScI–Temp (–40 C a 85 C): N600Si (a ser lanada)
Gerenciamento Trmico para Dissipao Ideal de Calor Distribuidor de calor de cobre revestido de nquel com design de dissipador de calor tipo barbatana de 4 mm ou 8 mm Design de dissipador de calor tipo barbatana de 15 mm
Segurana Criptografia AES de 256 bits TCG Opal 2.0
Integridade de Dados Proteo total do caminho dos dados
Desempenho (leitura/gravao at) 6.450/6.050 MB/s 6.000/5.500 MB/s
Outros Capacidade de Hot–swap

*Por Suporte ao Projeto

Para obter mais informaes sobre os SSDs N600 Series PCIe Gen 4 x 4 M.2 da ATP, visite:
https://www.atpinc.com/products/industrial–gen4–nvme–M.2–ssd
Para obter mais informaes sobre os SSDs N600 Series PCIe Gen 4 x 4 U.2 da ATP, visite:
https://www.atpinc.com/products/industrial–gen4–U.2–ssd

Contato com a Mdia no Comunicado Imprensa: Kelly Lin (Kellylin@tw.atpinc.com)
Siga a ATP Electronics no LinkedIn: https://www.linkedin.com/company/atp–electronics

Sobre a ATP
A ATP Electronics ("ATP") tem 30 anos de excelncia em fabricao como o principal fornecedor de produtos de memria e de armazenamento flash NAND para aplicaes rigorosas embarcadas/industriais/automotivas. Como "Lder Global em Solues Especializadas de Armazenamento e Memria", a ATP conhecida por sua experincia em solues trmicas e de alta resistncia. A ATP est empenhada em fornecer valor adicional, diferenciao e melhor TCO para os clientes. Um verdadeiro fabricante, a ATP gerencia todas as etapas do processo de fabricao para garantir qualidade e longevidade do produto. A ATP mantm os mais altos padres de responsabilidade social corporativa, garantindo valor sustentvel para os trabalhadores, meio ambiente e negcios em toda a cadeia de suprimentos global. Para mais informaes sobre a ATP Electronics, visite www.atpinc.com ou contacte–nos em info@atpinc.com.

Fotos deste comunicado podem ser encontradas em:

https://www.globenewswire.com/NewsRoom/AttachmentNg/56be0635–5027–442b–b9e7–c64c43e353d7
https://www.globenewswire.com/NewsRoom/AttachmentNg/3f0e3129–6f53–4366–b5bc–fd0cdc86f5a1
https://www.globenewswire.com/NewsRoom/AttachmentNg/63c5d538–09c1–4481–a188–e66cc487ecc9
https://www.globenewswire.com/NewsRoom/AttachmentNg/512ea038–214a–4b27–bbf4–adf8fa8a3fac
https://www.globenewswire.com/NewsRoom/AttachmentNg/400709dd–4d79–4e2a–ad76–e3bc7266f7a5
https://www.globenewswire.com/NewsRoom/AttachmentNg/933e1523–0df5–485d–9a11–e130864b199b


GLOBENEWSWIRE (Distribution ID 8863001)

ATP Electronics lance les disques SSD industriels 176 couches PCIe® Gén. 4 x4 U.2 et M.2 qui offrent d'excellentes performance en lecture/écriture et une capacité pouvant aller jusqu'à 7,68 To

TAIPEI, Taïwan, 28 juin 2023 (GLOBE NEWSWIRE) — ATP Electronics, le leader mondial des solutions de stockage et de mmoire spcialises, lance ses tout derniers disques SSD U.2 et M.2 2280 haute vitesse de la srie N600 dots de l'interface PCIe de 4e gnration et prenant en charge le protocole NVMe. Le dbit de donnes de 16 GT/s des nouveaux SSD PCIe de 4e gnration d'ATP quivaut au double de celui de la gnration prcdente, ce qui se traduit par une bande passante de 2 Go/s pour chaque voie PCIe.

Utilisant des voies x4, ces disques SSD ont une bande passante maximale de 8 Go/s, ce qui rpond au besoin croissant de transferts de donnes grande vitesse dans les applications exigeantes d'aujourd'hui et les rend adapts aux applications industrielles critiques intensives en lecture/criture, telles que les rseaux/serveurs, la 5G, la journalisation de donnes, la surveillance et l'imagerie, avec des performances gales, voire suprieures, celles des disques SSD PCIe de 4e gnration grand public disponibles sur le march.

La flash NAND 176 couches et la DRAM intgre offrent une qualit de service (QdS) exceptionnelle,
et un cot par Go infrieur grce l'excellent jeu de puces de 512 Go

La srie N600 repose sur l'innovante technologie flash 3D NAND 176 couches et utilise un excellent jeu de puces de 512 Go pour offrir non seulement des performances suprieures celles de la technologie 64 couches, mais aussi des amliorations de prix qui se traduisent par une baisse du cot par Go.

Les SSD M.2 2280 sont disponibles dans des capacits allant de 240 Go 3,84 To, tandis que les SSD U.2 sont disponibles dans des capacits allant de 960 Go 7,68 To, pour des options plus rentables rpondant des besoins de stockage divers.

Avec une valuation exceptionnelle de sa qualit de service par rapport la gnration prcdente, la srie N600 offre une constance et une prvisibilit optimales de par des performances de lecture/criture plus leves, un fort taux d'IOPS, un faible indice d'amplification de l'criture (WAI) et une faible latence, grce sa DRAM intgre. La DRAM intgre offre de meilleures performances soutenues sur de longues priodes de fonctionnement que les solutions sans DRAM.

Une prise en charge de l'approvisionnement long terme et prpare pour l'avenir

L'optimisation de la dure de vie des disques SSD, ainsi que la disponibilit d'units de remplacement longtemps aprs l'arrt de la production de leurs homologues grand public, est importante pour que les entreprises tirent le meilleur parti de leurs investissements. C'est pour cela qu'ATP Electronics s'engage offrir une longue prise en charge.

Nous sommes ravis de lancer cette nouvelle ligne de produits base sur la flash NAND triple niveau de cellule (TLC) de 176 couches. Bien que de plus rcentes itrations de NAND soient commercialises dans des couches 2XX+, celles–ci se concentreront sur des densits de 1 Tbit et plus. La NAND 3D TLC 176 couches avec une densit de 512 Gbit reste la densit de puces idale pour de nombreuses applications intgres et spcialises, tant donn leur besoin constant de densits de dispositifs SSD moyennes et infrieures.

Outre un prix comptitif, cette gnration offrira des amliorations en termes de latence et de fiabilit dans toutes les plages de temprature. Ce qui est peut–tre encore plus important pour notre clientle, c'est que cette gnration offrira la longvit du produit pour l'avenir prvisible. Nous pouvons travailler en toute confiance avec notre clientle qui a souvent besoin de produits d'une dure de vie de 5 ans ou plus , a dclar Jeff Hsieh, prsident et directeur gnral d'ATP Electronics.

Fonctionnement fiable et scuris
La srie N600 offre une multitude de fonctions de fiabilit, de scurit et d'intgrit des donnes, telles que :

  • Protection des donnes de bout en bout, prise en charge de la fonction TRIM, et correction des erreurs LDPC
  • Les rsistances anti–soufre vitent les effets nfastes de la contamination par le soufre, garantissant un fonctionnement fiable en continu mme dans les environnements forte teneur en soufre
  • Cryptage matriel AES 256 bits et scurit TCG Opal 2.0/ IEEE 1667 en option pour un disque chiffrement automatique (SED)
  • La srie N600Sc offre un fonctionnement fiable en cas de variations de temprature avec un indice C–Temp (de 0 70 ). La srie N600Si avec un indice en fonctionnement I–Temp (de –40 85 ) sera disponible ultrieurement.
  • La rduction thermique ajuste intelligemment la charge de travail par unit de temps de fonctionnement. Les tapes de rduction sont pr–configures, ce qui permet au contrleur de grer efficacement la production de chaleur afin de maintenir le SSD au frais. Cela garantit des performances stables et durables et empche la chaleur d'endommager l'appareil. Les options de dissipateur thermique sont disponibles par projet et selon la demande du client.
  • Mcanisme de protection contre la perte de puissance (PLP). La srie N600 U.2 et les prochains disques SSD M.2 2280 classs I–Temp sont dots d'une fonction PLP matrielle. Les condensateurs intgrs maintiennent l'alimentation suffisamment longtemps pour garantir que la dernire commande de lecture/criture/effacement soit acheve et que les donnes soient stockes en toute scurit dans la mmoire flash non volatile. La conception base sur un microcontrleur (MCU) permet la matrice PLP de fonctionner intelligemment face diffrents tats de charge, tempratures et problmes de courant, afin de protger la fois le dispositif et les donnes. Les disques SSD M.2 2280 classs C–Temp, quant eux, sont dots d'une PLP base sur un micrologiciel, protgeant efficacement les donnes qui avaient t crites sur le priphrique avant la coupure de courant.

Applications essentielles : nous construisons avec vous
En fonction de la prise en charge du projet et de la demande du client, ATP peut fournir une personnalisation du matriel/micrologiciel, une personnalisation des solutions thermiques, ainsi qu'une validation et une collaboration conjointes en matire d'ingnierie.

Pour garantir la fiabilit de la conception des applications critiques, ATP effectue des essais approfondis, une caractrisation complte de la conception/du produit et une validation des spcifications, ainsi que des essais personnaliss au stade de la production de masse (MP), tels que le dverminage, les mises hors tension et sous tension successives, les scripts d'essais spcifiques et plus encore.

Points saillants des produits

PCIe Gn. 4 NVMe M.2 2280 PCIe Gn. 4 NVMe U.2
Capacits 240 Go 3,84 To 960 Go 7,68 To
Temprature en
fonctionnement
C–Temp (0 C 70 C) : N600Sc
I–Temp (–40 C 85 C) : N600Si ( venir)
Gestion de la chaleur pour
une dissipation thermique
optimale
" Dissipateur de chaleur en cuivre nickel
" Dissipateur thermique ailerons 4 mm ou 8 mm
Dissipateur thermique ailettes 15 mm
Scurit Cryptage AES 256 bits TCG Opal 2.0
Intgrit des donnes Protection du chemin des donnes de bout en bout
Performance (vitesse de
lecture/criture maximale)
6 450/6 050 Mo/s 6 000/5 500 Mo/s
Autres Possibilit de permuter chaud

*Selon la prise en charge du projet

Pour tout complment d'information sur les SSD de la srie N600 PCIe Gn. 4 x4 M.2 d'ATP, veuillez consulter la page :
https://www.atpinc.com/products/industrial–gen4–nvme–M.2–ssd
Pour tout complment d'information sur les SSD de la srie N600 PCIe Gn. 4 x4 U.2 d'ATP, veuillez consulter la page :
https://www.atpinc.com/products/industrial–gen4–U.2–ssd

Contact auprs des mdias concernant le communiqu de presse : Kelly Lin (Kellylin@tw.atpinc.com)
Suivez ATP Electronics sur LinkedIn : https://www.linkedin.com/company/atp–electronics

propos d'ATP
ATP Electronics ( ATP ) est forte de 30 ans d'exprience dans la fabrication d'excellence en tant que premier fournisseur de produits de stockage flash NAND et de mmoire pour des applications embarques/industrielles/automobiles exigeantes. En tant que Leader mondial des solutions spcialises de stockage et de mmoire , ATP est connue pour son expertise dans les solutions thermiques et haute rsistance. ATP s'engage fournir une valeur ajoute, une diffrenciation et un meilleur cot total de possession ses clients. Fabricant authentique, ATP gre toutes les tapes du processus de fabrication pour assurer la qualit et la longvit. ATP respecte les normes les plus leves en matire de responsabilit sociale d'entreprise en assurant une valeur durable pour les travailleurs, l'environnement et les entreprises tout au long de la chane d'approvisionnement mondiale. Pour plus d'informations sur ATP Electronics, rendez–vous sur www.atpinc.com ou contactez–nous via info@atpinc.com.

Des photos accompagnant ce communiqu sont disponibles aux adresses suivantes :

https://www.globenewswire.com/NewsRoom/AttachmentNg/56be0635–5027–442b–b9e7–c64c43e353d7

https://www.globenewswire.com/NewsRoom/AttachmentNg/3f0e3129–6f53–4366–b5bc–fd0cdc86f5a1

https://www.globenewswire.com/NewsRoom/AttachmentNg/63c5d538–09c1–4481–a188–e66cc487ecc9

https://www.globenewswire.com/NewsRoom/AttachmentNg/512ea038–214a–4b27–bbf4–adf8fa8a3fac

https://www.globenewswire.com/NewsRoom/AttachmentNg/400709dd–4d79–4e2a–ad76–e3bc7266f7a5

https://www.globenewswire.com/NewsRoom/AttachmentNg/933e1523–0df5–485d–9a11–e130864b199b


GLOBENEWSWIRE (Distribution ID 8863001)