This document describes RML, a generic mapping language, based on and extending [R2RML]. The RDF Mapping language (RML) is a mapping language defined to express customized mapping rules from heterogeneous data structures and serializations to the RDF [RDF-CONCEPTS] data model. RML is defined as a superset of the W3C-standardized mapping language [R2RML], aiming to extend its applicability and broaden its scope, adding support for data in other structured formats. [R2RML] is the W3C standard to express customized mappings from relational databases to RDF. RML follows exactly the same syntax as R2RML; therefore, RML mappings are themselves RDF graphs. The present document describes the RML language and its concepts through definitions and examples.
The Compliance Assessment Toolkit will support the EOSC PID policy with services to encode, record, and query compliance with the policy. To do so, a wide range of compliance requirements ( TRUST, FAIR, PID Policy, Reproducibility, GDPR, Licences) will be evaluated as use cases for definition of a conceptual model. At the same time, vocabularies, concepts, and designs are intended to be re-usable for other compliance needs: TRUST, FAIR, POSI, CARE, Data Commons.
The CEOS System Engineering Office (SEO) worked with the CEOS Working Group on Information Systems and Services (WGISS) to gather and organize key information on data policies, data access portals and interoperability protocols.
CEOS is currently operating and planning hundreds of Earth observation satellites. The information contained in this portal will improve the efficiency and effectiveness of gaining access to space-based Earth observation data to support many global intiatives with vast societal impact.
Calcyte is (will be) a toolkit for managing metadata for collections of content
via automatically generated spreadsheets and for creating static HTML repositories.
Calcyte targets the Draft DataCrate Packaging format v0.2.
At this stage Calcyte does not Bag content, it jsut creates Working DataCrates.
This document specifies a method of organising file-based data with associated metadata, known as DataCrate in both human and machine readable formats, based on the schema.org linked-data vocabularly, supplemented with terms from the SPAR ontologies and [PCDM] where schema.org does not have coverage. The motivation for this work comes from the research domain.
A DataCrate is a dataset a set of files contained in a single directory. There are two ways of organizing a DataCrate.
For working data or data that does not need to be distributed with checksums, a Working DataCrate is a plain-old directory containing payload data files, with two metadata files at the root; one for humans and one for machines.
For distribution, or archiving; where integrity is important, a Bagged DataCrate is a BagIt bag conforming to the DataCrate BagIt profile with the payload files in the /data directory. A Bagged DataCrate has a clear separation between metadata and payload, and can be integrity-checked using the checksums in the BagIt manifest.
This website is for information related to the CESAER Taskforce on Open Science, and in particular on its sub-group looking at how the Technical Universities in Europe deal with Engineering and Research Data Management. The group is working on two tasks Task 1 - FAIR Data in Engineering (2018-19) Read - Summary of First Findings on…
Status: Recognised & Endorsed The Metadata IG will concern itself with all aspects of metadata for research data. In particular it will attempt to coordinate the efforts of the WGs concerned with metadata to produce a coherent approach to metadata covering metadata modalities of description, restriction, navigation, provenance, preservation and the use of metadata for the purposes discovery, contextualisation, validation, analytical processing, simulation, visualisation and interoperation. It will also liaise with the other WGs especially Data Foundation and Terminology, PIDs, Standardisation of data categories and codes and Data Citation. This IG activity relates to data management policies and plans of research organisations and researchers, and to policies and standards of research funders and of research communities which may or may not be official standards.
The Library of Congress and its digital preservation partners from the federal, library, creative, publishing, technology, and copyright communities are working to develop a national strategy to collect, archive, and preserve digital content.
Ein bedeutendes neues Handlungsfeld der Forschung, welches im Zuge der Digitalisierung entstanden ist, ist das Management von digitalen Forschungsdaten. Wissenschaftler*innen benötigen für ein nachhaltiges Forschungsdatenmanagement (FDM) neben Kenntnissen und Fähigkeiten im fachlichen Bereich zusätzliche Kompetenzen im Umgang mit digitalen Daten. Die Vermittlung dieser Kenntnisse sollte idealerweise bereits im Studium erfolgen. Zudem besteht ein steigender Bedarf an forschungsunterstützendem Personal, z.B. in Form von Data Stewards, der nur über geeignete Aus- und Weiterbildungsmaßnahmen gedeckt werden kann. Die vorliegende Lernzielmatrix fasst für das FDM relevante Vermittlungsinhalte sowie zugehörige Lernziele auf den Qualifikationsstufen Bachelor, Master, PhD und Data Steward aus einer Reihe von nationalen wie internationalen Projekten und Fortbildungskonzepten zum Themenbereich FDM in einheitlicher Form zusammen und bietet Nachnutzenden eine Orientierungshilfe für die Identifikation von relevanten Inhaltsaspekten sowie eine Arbeitsgrundlage, etwa für eine erweiterte fach- oder veranstaltungsspezifische Ausgestaltung. Die Lernzielmatrix entstand im Rahmen der DINI/nestor AG Forschungsdaten UAG Schulungen/Fortbildungen unter Einbezug externer Kolleg*innen.
The STRENDA Guidelines aim to support authors to comprehensively report kinetic and equilibrium data from their investigations of enzyme activities. Both the STRENDA project and the STRENDA Guidelines are registered in biosharing.org, a web portal that collects inter-related data standards, databases, and policies in the life, environmental and biomedical sciences. Today more than 30 international biochemistry journals recommend their authors to consult the STRENDA Guidelines when publishing enzyme kinetics data.
Sciformation Consulting entwickelt Software für den Einsatz in der Forschung, insbesondere für die Chemie und angrenzende Gebiete.
Sciformation ELN ist ein multidisziplinäres Elektronisches Laborjournal (ELN), das nahezu jeder Anforderung im diesem Bereich gewachsen ist – auch den Herausforderungen in Unternehmen und großen Forschungsinstituten. Es vereint unter einem Dach ein ausgefeiltes Laborjournal mit Analytikintegration, ein In-house-Bestellsystem und ein LIMS – so können vorhandene Informationen und mögliche Synergien bestmöglich genutzt werden.
für Chemiker Chemiker profitieren von bequemer Ansatzberechnung, integriertem Chemikalieninventar oder nützlichen Auswertungsfunktionen. Biologen und Biochemiker können Experimente mit Mikrotiterplatten effizient abbilden und organisieren.
für Physiker und Ingenieure Auch Physiker und Ingenieure können von der strukturierten Erfassung von Workflows in Sciformation ELN profitieren und Analytik wie auf Papier mit Anmerkungen versehen.
für Forensiker Forensiker können in der Datenbank nach Analytikmessungen mit ähnlichen Signalmustern suchen und Asservate in maßgeschneiderten Formularen erfassen.
flexibel für neue Aufgaben Durch die hohe Flexiblität ist die Lösung für neue Aufgaben zum Greifen nah.
Sciformation ELN vereint Versuchsbeschreibungen, Analytikdaten und relevante Literatur auf einer Plattform, um Forschungsdaten nachhaltig nutzbar zu machen.
open enventory ist speziell auf die Belange kleinerer chemischer Forschungsgruppen zugeschnitten und hat weltweit Anhänger gefunden.
Mit Sciformation VectorMol zeichnen Sie Moleküle und Reaktionsgleichungen im Browser – ohne Java-Applets oder Plugins.